Wed. Aug 28th, 2024

A los robots -que constituyen el reflejo mecánico del hombre- se les atribuyen una serie de carencias humanas. Uno de los más recientes es el adquirido por CLIP, una inteligencia artificial que clasifica a las personas basado en estereotipos tóxicos relacionados con la raza y el género.

Investigadores de la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington descubrieron que CLIP no es tan benévolo como se esperaba, y los resultados de este trabajo se presentaron en la Conferencia sobre equidad, responsabilidad y transparencia.

CLIP tenía la tarea de poner objetos en una caja. En concreto, los objetos fueron bloques con rostros humanos variada donde todas las razas estuvieron representadas.

En total hubo 62 pedidos, y el equipo rastreó la frecuencia con la que el robot seleccionaba cada género. Los resultados fueron claros: era incapaz de actuar sin perjuicio ya menudo representaba estereotipos significativos e inquietantes.

El peligro de los robots con prejuicio de clase. Foto REUTERS

la IA hombres seleccionados 8% más que mujeres. Por otro lado, los hombres blancos y asiáticos fueron los más elegidos mientras que las mujeres negras prácticamente no los eligieron.

Además, CLIP tendía a asociar a las amas de casa con las mujeres, mientras que los hombres negros los identificó como delincuentes 10% más que los blancos.

También mostró una tendencia a seleccionar latinos como conserjes y cuando se le pidió que eligiera médicos, casi nunca seleccionó mujeres.

“El robot ha aprendido estereotipos tóxicos a través de modelos de redes neuronales defectuosos”, dijo el autor Andrew Hundt, becario postdoctoral en Georgia Tech.

Según el experto, existe el riesgo de “crear una generación de robots racistas y sexistas” pero a nadie parece importarle: “La gente y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”.

discriminación heredada

Básicamente, los científicos temen que los robots, si alguna vez se convierten en parte de la sociedad, puedan “causar daños físicos irreversibles” a alguien en función de su raza o género.

En el futuro, los robots podrían heredar el odio de los humanos.

Este tipo de comportamientos no llegarán a ser tan trágicos como la ciencia ficción se ha encargado de ilustrar. Sin embargo, a pesar de que estos escenarios distópicos no parecen ser una realidad, surge una pregunta importante: La IA avanzada es capaz de contagiar los prejuicios de los seres humanos.

El equipo entiende que una de las principales razones por las que esto ha sucedido es que CLIP ha recibido material extraído de Internet, que está plagado de estereotipos tóxicos sobre la apariencia y la identidad de las personas.

Aunque Hundt ha aclarado que no se puede culpar a Internet de todo: “Cuando dijimos ‘pon al criminal en la caja marrón’, un sistema bien diseñado se negaría a hacer nada”.

Sin embargo, eligió a un hombre negro. “Incluso si es algo que parece positivo como ‘poner al médico en la caja’, no hay nada en la foto que indique que esa persona es un médico, por lo que no se puede hacer esa designación”, dijo.

Con información de La Vanguardia.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *