INTELIGENCIA ARTIFICIAL

¿IA de Facebook es racista?, error evidencia sesgos en los algoritmos de la red social

Ningún empleado de Facebook se percató del error de recomendación de contenido de la inteligencia artificial hasta que el caso llegó a los medios de comunicación

Error de Facebook que nadie en la compañía notó hasta ahora.Error de Facebook que nadie en la compañía notó hasta ahoraCréditos: Pexels
Escrito en TENDENCIAS el

En varios momentos se ha discutido y debatido los sesgos sociales que las empresas, que trabajan con inteligencia artificial (IA), suelen impregnar en dicha tecnología. Ahora a quedado evidenciada la red social Facebook, debido a que su IA etiquetó un video en el que aparecen personas afrodescendientes como contenido relacionado a "primates".

IA de Facebook comete error en recomendación de contenido

El video que evidencio el sesgo racista del algoritmo de Facebook lleva más de un año publicado. Sin embargo, lo que ha atraído la atención de este caso es que recientemente alguien se percató del error  de etiquetado ejecutado por la inteligencia artificial.

Asimismo, el clip en cuestión fue subió a Facebook el 27 de junio de 2020 por el medio británico Daily Mail. El material muestra "a hombres negros en altercados con civiles blancos y la policía", pero debajo del reproductor del video, el algoritmo de recomendaciones de Facebook preguntaba a los usuarios si querían "continuar viendo videos sobre primates".

Error de Facebook que nadie en la compañía notó hasta ahora

Al parecer en Facebook no se percataron de error hasta hace pocos días, cuando Darci Groves, exgerente de diseño de contenido de la red social, compartió una captura de pantalla en un foro de empleados y exempleados. Se desconoce durante cuánto tiempo estuvo visible este error, pero la empresa desactivó las recomendaciones basadas en inteligencia artificial.

De acuerdo con el New York Times, la compañía de Mark Zuckerberg ofreció disculpas por este error y se comprometió a hallar el origen de este problema para darle solución.

“Aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más progreso que hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas” dijo Dani Lever, vocero de Facebook a El New York Times.

Facebook no es la única red social con sesgos en algorítmicos que discriminan

Este problema en torno a los sesgos y prejuicios con que se desarrolla la tecnología no es nuevo. Son varias las empresas que han sido evidenciadas por los sesgos en los algoritmos que mantienen la discriminación basada en el físico y la tonalidad de piel de las personas.

Recientemente Twitter reconoció de manera pública que sus algoritmos basados en IA no tenían un comportamiento equitativo, al dar preferencia a rostros blancos, jóvenes y delgados antes que a otros con características menos hegemónicas.

Pero el caso más polémico es el de Google. En diciembre de 2018 la codirectora de Ética de Inteligencia Artificial de Google, Timnit Gebru, publicó en Twitter que la compañía la había obligado a dejar su puesto luego de que ella se pronunciara sobre la autocesura de la compañía respecto a los sesgos de la IA.

Gebru es conocida por ser coautora de un artículo académico que demostró que el reconocimiento facial era menos preciso en un 35% en la identificación de las mujeres y las personas de color, frente al 1% de errores al reconocer rostros de hombres blancos, lo que significa que su uso podría terminar discriminando a las mujeres afrodescendientes o de piel oscura.

Tras la presión por esta investigación, IBM abandonó sus proyectos con IA, mientras que Microsoft y Amazon pusieron pausa a sus respectivos programas basados en inteligencia artificial. Sin embargo, Google se limitó a despedir a sus líderes de ética en inteligencia artificial.

Sigue a Heraldo Binario en Google News, dale CLIC AQUÍ.