Los investigadores de Google pretenden evitar AIs de discriminar

0
115

Los investigadores de Google pretenden evitar AIs de discriminar

Basura adentro, basura hacia fuera, que siempre ha sido una regla de la informática, y sistemas de aprendizaje de máquina no son la excepción. Estas AIs elementales sólo saben lo que les decimos, y si datos lleva un sesgo de ningún tipo, así también será el sistema entrenado en él. Google está tratando de evitar tan torpe y situaciones potencialmente graves sistemáticamente con un método llama “Igualdad de oportunidades.”

Sistemas de aprendizaje de máquina son básicamente motores de predicción que aprenden las características de varios conjuntos de datos y luego, dado un nuevo bit de datos, asignan a uno de cubos varios: un sistema de reconocimiento de imagen podría aprender la diferencia entre los diferentes tipos de coches, asignando a cada imagen una etiqueta como “sedan”, “camioneta”, “bus”, etc..

Los errores son inevitables: considere un palo de golf o El Camino. Lo que decide el equipo, es un error, porque no tiene suficientes datos de este tipo sin representación de vehículo.

Las consecuencias de ese error particular están probable que sean triviales, pero ¿qué pasa si el equipo es clasificar a través de personas en lugar de coches y categorización de riesgo de impago de un préstamo hipotecario? Personas que caen fuera de los parámetros comunes son desproporcionadamente propensas a caer eran lo que el sistema aprende son buenas apuestas del resto de los datos, eso es sólo cómo funciona el aprender de máquina.

“Cuando la pertenencia a un grupo coincide con una cualidad sensible, como raza, género, discapacidad o religión, esta situación puede conducir a resultados injustos o perjudiciales,” escribió Moritz Hardt’s Google Brain en un blog. “A pesar de la necesidad, ha faltado una metodología investigada en máquina de aprendizaje para la prevención de este tipo de discriminación basada en atributos sensibles.”

Hardt, junto a sus colegas Eric Price y Nathan Srebro, escribió un artículo que describe una manera de evitar este tipo de resultado. Hay un montón de cosas como esta:

Los investigadores de Google pretenden evitar AIs de discriminar

¿Kolmo-que ahora?

Pero lo esencial es esto: cuando hay un resultado deseado y una posibilidad de uno de esos atributos incorrectamente, que afecta a de alguien probabilidad de obtenerlo, el algoritmo se ajusta para que haya una proporción similar de los resultados independientemente de ese atributo. Realmente no es un problema para el equipo, se entrena para que valores de paridad entre atributos no relevantes.

Usted puede conseguir un sentido intuitivo de con estos gráficos interactivos el equipo. No se trata goosing los números para ser políticamente correcto; el modelo resultante realmente será más preciso en sus predicciones. Y si uno de estos atributos es relevante — digamos es calcular la probabilidad de que alguien que este o que religión basada en su ubicación o hacer predicciones médicas que difieren entre los sexos, sólo incluye.

Es una línea reflexiva de investigación para Google que perseguir y muy relevante, teniendo en cuenta cómo el aprender de máquina se impregna tantas industrias tan rápidamente. Es importante ser conscientes de las limitaciones y riesgos de las nuevas tecnologías, y esto es una sutil pero importante.

Los autores presentarán su trabajo en la Conferencia de sistemas de procesamiento de información neuronal, una razón tan buena como cualquiera para ir a Barcelona.

Featured Image: Getty Images

LEAVE A REPLY