fbpx
Wednesday, May 12, 2021

Algoritmo de Twitter da prioridad a rostros blancos e ignora los negros

Algoritmo de Twitter da prioridad a rostros blancos e ignora los negros.

Usuarios de Twitter se percataron de un posible sesgo racista. Cuando hay 2 rostros en una sola imagen, la red social sólo muestra el más blanco en su miniatura. Por ejemplo, en una imagen aparecen el senador blanco Mitch McConnell y el expresidente Barack Obama. Al final, la red social elige el rostro de Connell, no importando si este se encuentra arriba, abajo o en el centro.

Twitter inició este algoritmo en 2017, pero no se habían percatado de este fallo según un comunicado. No obstante, luego de que el tema se hiciera viral, el director de diseño, Dantley Davis, se comprometió a corregir ese fallo.

Te puede interesar:

Tenoch Huerta causa polémica en Twitter por mensaje eliminado
Hackeo masivo en Twitter ya está siendo investigado

Algoritmo de Twitter da prioridad a rostros blancos e ignora los negros.

Algoritmo de Twitter da prioridad a rostros blancos e ignora los negros.
(Esta es la imagen completa del experimento. A menos que alguien le de click, siempre va a aparecer el rostro de Connell. No importando si ponen arriba o abajo)

Ariadna Font Llitjós, ingeniera de Twitter en Nueva York, explica que el algoritmo no identifica caras. Sino que busca las áreas más destacadas de la imagen, intentando predecir dónde vamos a mirar primero. Lo dicho anteriormente fue puesto a prueba por  Font Llitjós, quien dirigió una investigación con la Universidad Carnegie Mellon. El equipo probó con 92 imágenes ayer, y el resultado fue el mismo; se priorizaban los de tez más clara.

Lorena Fernández, directora de identidad digital en la Universidad de Deusto. Recuerda que el MIT descubrió que fallas de este tipo perjudicaban especialmente a mujeres y a personas negras. A razón de esto, IB, y Amazon han decidido no invertir más en proyectos que involucren reconocimiento facial.

Una de las teorías de Inés Huertas, especialista en big data y en machine learning. Es que el sitio recibe más información de rostros blancos, de ahí que esté más acostumbrado a ellos y de alguna forma “los prefiera”. Pues el algoritmo también omite rasgos asiáticos. Aunque algo parecido ocurre con Zoom, que tiene problemas en reconocer las caras afroamericanas. O el análisis de textos de Google, que evalúa las oraciones “Soy Gay” o “Soy lesbiana” como insultos.

Síguenos en Twitter @ElDictamen.
O si lo prefieres, en Facebook /ElDictamen.
Y también en Instagram: @ElDictamen
Más noticias AQUÍ.

Noticias en tu correo

Escribe tu correo electrónico:

ULTIMAS NOTICIAS

Contenido Relacionado