INTELIGENCIA ARTIFICIAL

Algoritmo de Twitter prefiere los rostros más delgados, jóvenes y blancos: investigación

El sistema de inteligencia artificial de Twitter está predispuesto a destacar las imágenes de personas delgadas, jóvenes y de tonalidades de piel clara

¿Qué implicaciones sociales tienen los sesgos de la inteligencia artificial?.¿Qué implicaciones sociales tienen los sesgos de la inteligencia artificial?Créditos: Bogdan Kulynych
Escrito en TENDENCIAS el

Una investigación ha revelado que el algoritmo de Twitter, basado en Inteligencia Artificial (IA), tiene un sesgo que le hace preferir las imágenes de rostros estilizadas y editadas mediante filtros. Esto fue descubierto gracias a un concurso.

Concurso revela que un algoritmo de Twitter tiende a preferir rostros “estilizados”

En julio de 2021 Twitter realizó un concurso para detectar problemas en su algoritmo de tuits relevantes, el cual está basado en inteligencia artificial (IA). Este sistema identifica áreas clave de una imagen y la recorta para así resaltarla en el feed de sus usuarios.

Bogdan Kulynych, un estudiante de posgrado e investigador de la Escuela Politécnica Federal de Lausana, en Suiza, ganó un reconocimiento de 3,500 dólares después de encontrar que un algoritmo de Twitter “prefiere” los rostros con filtros que estilizan la cara.

Así descubrió la falla del algoritmo

Mediante un método de deepfake, Kulynych produjo diferentes rostros y con ellas puso a prueba el algoritmo de Twitter. Los resultados de sus pruebas determinan que este sistema considera más relevantes los rostros más jóvenes, delgados y de piel más clara, características presentes en los mal llamados 'filtros de belleza'.

A principios de 2020 Twitter admitió que su sistema de inteligencia artificial daba preferencia a las fotos de personas de piel más clara sobre las de tonalidades oscura. Ahora este concurso le permitió saber la existencia de otros sesgos de su algoritmo, mismo que podría estar discriminando a personas usuarias de la red social.

¿Qué implicaciones sociales tienen los sesgos de la inteligencia artificial?

“El modelo está predispuesto a considerar más destacadas las representaciones de personas que parecen delgadas, jóvenes, de color de piel claro o cálido, textura de piel suave y con rasgos faciales estereotípicamente femeninos [...] Este sesgo podría resultar en la exclusión de poblaciones minoritarias y la perpetuación de los estándares de belleza estereotipados en miles de imágenes”, remató el investigador Kulynych.

Esta es una evidencia más de que la inteligencia artificial entrenada con datos del mundo real también puede aprender los sesgos sociales. Lo que sigue es que con las pruebas de Bogdan Kulynych, Twitter reformule su algoritmo.