Connect with us

Hi, what are you looking for?

FM Chaco

Tecnología

Acusan a Twitter por un comportamiento racista de su algoritmo

Usuarios reportaron que las vistas previas de las fotos priorizan rostros de personas blancas. La compañía reconoció el sesgo.

Hace un par de años Twitter incluyó en su plataforma un algoritmo para generar una vista previa de las fotografías que, según explicaron en la ocasión, determina en forma automática las partes más destacadas de una imagen. Es decir, aquello en lo que usualmente nos enfocaríamos. Ahora, ese mecanismo automatizado está bajo la lupa debido a un comportamiento racista que fue descubierto por algunos tuiteros, consiguiendo que el debate se haga visible en la red social.

Según revelaron algunos usuarios en diferentes pruebas, el algoritmo para la vista previa de las fotos frecuentemente privilegia los rostros de personas blancas sobre las caras negras. Uno de los hilos más extensos inició con un mensaje que dejó en evidencia el sesgo: al colocar una foto en la que aparece el expresidente de Estados Unidos Barack Obama y el señador Mitch McConnell, el algoritmo recortó automáticamente la fotografía escogiendo al hombre de piel blanca.

Los rostros de caucásicos usualmente fueron privilegiados por el método, incluso alterando las imágenes con diferentes posiciones y ediciones, y también en fotografías de dibujos animados.

Tal como cuentan en Mashable, este descubrimiento en Twitter comenzó en la app Zoom. Un usuario comentó en un tuit que había detectado un inconveniente para que aquella herramienta de videollamadas detecte rostros de personas negras al colocar fondos virtuales. Publicó el mensaje incluyendo capturas y descubrió además que la vista previa de Twitter privilegiaba las caras de caucásicos.

Twitter, sorprendido
El sesgo racista del algoritmo sorprendió a los responsables de Twitter, que prometieron investigar el comportamiento del sistema. El propio director de diseño de la empresa, Dantley Davis, hizo sus propios experimentos y comentó lo siguiente en un tuit: “Estoy tan irritado por esto como todos los demás”.

A su vez, Parag Agrawal, responsable de tecnología en Twitter, dijo que el algoritmo requiere mejoras continuas y que siempre es importante aprender de los usuarios.

“Nuestro equipo probó el prejuicio antes de enviar el modelo y no encontró evidencia de prejuicio racial o de género en nuestras pruebas. Pero está claro a partir de estos ejemplos que tenemos más análisis que hacer”, dijo la vocera de Twitter, Liz Kelley. “Abriremos nuestro trabajo para que otros puedan revisar y replicar”, añadió.

Antecedentes
Tal como contamos en esta nota de TN Tecno al repasar las conclusiones de un estudio reciente que encontró vicios machistas en los sistemas de inteligencia artificial, cabe notar que la problemática no responde a la tecnología en sí sino a quiénes son las personas que las diseñan y que, a fin de cuentas, trasladan sus propios sesgos a los desarrollos.

En La tecnología es machista, pero no lo será por siempre, la directora de Chicas en Tecnología, Melina Masnatta, notó que “el gran punto es que nunca nos preguntamos quién se encargó del diseño” de los sistemas de inteligencia artificial, y señaló que “mientras la cultura está moviéndose hacia un camino donde estos estereotipos de género son replanteados, las tecnologías por estar creadas por un determinado grupo de personas (por lo general hombres blancos americanos) reproducen más fuertemente este dilema”.

A fines de 2019, un informe del Instituto Nacional de Estándares y Tecnología (NIST), que depende del Departamento de Comercio de Estados Unidos, publicó un estudio señalando que muchos sistemas de reconocimiento facial son racistas y sexistas. Para el informe analizaron casi 200 de esos métodos y encontraron que fallan entre 10 y 100 veces más al intentar identificar rostros de afroamericanos y asiáticos, en relación al de los caucásicos.

“Descubrimos que los falsos positivos son más altos en las mujeres que en los hombres y esto es consistente en todos los algoritmos y conjuntos de datos”, indicaron. Además comentaron que en las imágenes que emplean las fuerzas policiales las fallas más recurrentes “se encuentran en los nativos americanos, con tasas elevadas en la población afroamericana y asiática”.

Recientemente, expertos del laboratorio BikoLabs pusieron a prueba al sistema Rekognition de Amazon. Usaron dos imágenes: en una de ellas, una mujer sostiene un taladro, y en la segunda, modificada con FaceApp, se ve el rostro de un hombre con el cuerpo de esa mujer. Cuando el sistema de visión artificial encuentra en la foto a una persona con pelo largo y rasgos de mujer, no detecta que el objeto sostenido es un taladro y señala que es un secador de pelo. Pero sí reconoce la herramienta cuando revisa la imagen en la que vemos el rostro de un hombre. Algo similar ocurrió con el sistema de inteligencia artificial de Google que revisa imágenes.

“De un tiempo a esta parte, a pesar de la fe puesta en los supuestos superpoderes de la inteligencia artificial (IA), hemos tenido que asumir que ni es tan objetiva, ni tan neutral como se deseaba”, comentaron al respecto los investigadores.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Advertisement

También Te Puede Interesar

Deportes

Pasaron cuatro fechas del inicio de la temporada para el Barcelona, que viene de protagonizar una campaña para el olvido después de no poder levantar...

CORRUPCION

De un barrio para familias Qom, repartió en su familia la mitad de las casas. Ahora firmó un convenio con la Nación para hacer...

Sociedad

Aduana Argentina incautó $1.640.000 en el Centro Unificado de Frontera, en poder de un hombre que intentaba cruzar a pie hacia el vecino país,...

Deportes

El delantero brasileño Robinho volvió a negar los abusos supuestamente cometidos por él en un caso que le condenó a nueve años de prisión por violencia sexual...