EL ERROR SE REPITE

Robot se vuelve racista y sexista después de que su IA fuera conectada a internet

El robot aprendió en la web conceptos racistas y sexistas como que las mujeres son amas de casa o que las personas de raza negra son criminales.

Robot se vuelve racista y sexista después de que su IA fuera conectada a internet.Créditos: Unsplash
Por
Escrito en CIENCIA el

¿Dónde hemos visto esto? En su intento por crear un robot de Inteligencia Artificial, los científicos se han encontrado con diversos obstáculos y los defectos de la humanidad como el racismo y el sexismo acaban de echar por la borda años de trabajo.

Un experimento fallido realizado por investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington, dejó claro que la ciencia aún tiene un largo camino que recorrer antes de que los robots sean capaces de eliminar los peores rasgos de la humanidad.

El estudio que salió muy mal se realizó con una IA construida a partir de la red neuronal CLIP. Los científicos buscaban que el robot identificara objetos; sin embargo, el fracaso del experimento se evidenció cuando se le pidió al robot que clasificara bloques con caras humanas en distintas cajas.

El robot se volvió racista y sexista

A la hora de realizar este ejercicio, los investigadores no le pusieron las cosas sencillas al robot, pues no le pidieron simplemente que seleccionara a las personas según su raza, en cambio, se le indicó que colocara en la caja a criminales o médicos.

Los científicos esperaban que el robot simplemente se negara a realizar esa tarea, pero para su sorpresa, el robot comenzó a clasificar a las personas sin problemas. Los investigadores quedaron devastados tras ver el grotesco resultado de la selección que el robot había hecho. 

La IA prejuzgó a los distintos tipos de personas representadas en las cajas, asumiendo, por ejemplo, que las mujeres son amas de casa, que las personas de raza negra son criminales o que los latinos son conserjes.

“Nos arriesgamos a crear una generación de robots sexistas y racistas, pero la gente y las organizaciones son las que tienen que decidir si está bien crear estos productos sin pensar en los posibles problemas. En casa, el robot podría elegir la muñeca blanca cuando se le pida la muñeca más bonita, mientras que en un almacén, dado que hay muchos productos con modelos en la caja, el robot podría escoger aquellos que tienen a una persona de raza blanca de manera más frecuente”, concluyó Andrew Hundt, autor principal del estudio.

La grotesca historia de Tay

En 2016, Microsoft estrenó orgullosamente a su chatbot llamado Tay, el cual comenzó a responder tuits, esto con la idea de que los chatbots representaban el futuro de la informática y facilitarían actividades como el servicio al cliente.

Sin embargo, el chatbot no duró ni 24 horas chateando en Twitter, pues tuvo que ser retirado debido a su incapacidad para reconocer cuándo estaba haciendo declaraciones ofensivas o racistas.

Desde luego el chatbot no estaba codificado para ser racista pero al igual que el robot de de la Universidad Johns Hopkins aprendió en internet de aquellos con quienes interactuaba y, lamentablemente, una de las primeras cosas que los usuarios en línea le enseñaron a Tay fue cómo ser racista y cómo expresar opiniones políticas incendiarias o mal informadas.

Así fue como Tay pasó de contar chistes a los usuarios u ofrecer un comentario sobre una imagen que se le enviaba a hacer comentarios con referencia a Hitler, negando el Holocausto, apoyando los planes de inmigración del expresidente estadounidense Donald Trump y para construir un muro, o incluso poniéndose del lado de los abusadores en el escándalo denominado #GamerGate.

Cuanto más chateas con Tay, decían desde Microsoft, más inteligente se vuelve, aprendiendo a involucrar a las personas a través de "conversaciones informales y divertidas". Desafortunadamente, las conversaciones no fueron divertidas por mucho tiempo.

Tras el fracaso de estos experimentos, los científicos aún deberían de responder a la pregunta: ¿Cómo van a enseñar a Inteligencia Artificial usando datos públicos sin incorporar los peores rasgos de la humanidad? ¿Será posible?

Sigue a Heraldo Binario en Google News, dale CLIC AQUÍ.