Twitter investigará por qué su algoritmo favorece las caras de raza blanca al recortar imágenes
Al subir una imagen demasiado grande a Twitter, el algoritmo de la red social elige, mediante Inteligencia Artificial, la parte de la fotografía que considera más relevante y es la que muestra en la vista preliminar. Sin embargo, según han demostrado cientos de usuarios este fin de semana, el algoritmo de Twitter parece priorizar las caras de personas blancas por encima de las negras en la mayoría de los casos.
El algoritmo de Twitter encargado de la vista previa de las imágenes favorece las caras de las personas blancas sobre las de las personas negras
Esto ha generado cierta polémica en la red social durante los últimos días. Al publicar una foto alargada con dos personas en cada uno de sus extremos, una blanca y una negra, aunque la diferencia de color sea mínima, la vista previa casi siempre muestra a la persona blanca. E incluso ocurre lo mismo con dibujos animados, tal y como se puede apreciar en los siguientes tuits:
https://twitter.com/bascule/status/1307440596668182528?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1307440596668182528%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fwww.theverge.com%2F2020%2F9%2F20%2F21447998%2Ftwitter-photo-preview-white-black-faces
I wonder if Twitter does this to fictional characters too.
Lenny Carl pic.twitter.com/fmJMWkkYEf
— Jordan Simonovski (@_jsimonovski) September 20, 2020
Los usuarios comenzaron este fin de semana a realizar el experimento tras popularizarse en Twitter un problema similar pero que afectaba a la app de mensajería Zoom, que eliminaba la cara de una persona negra en las llamadas. Al publicar las capturas de Zoom, los usuarios se dieron cuenta de que el algoritmo de Twitter también ocultaba a las personas negras en la vista previa de las imágenes.
A faculty member has been asking how to stop Zoom from removing his head when he uses a virtual background. We suggested the usual plain background, good lighting etc, but it didn't work. I was in a meeting with him today when I realized why it was happening.
— Colin Madland (@colinmadland) September 19, 2020
Twitter ha comunicado que no se ha encontrado un sesgo racial en el algoritmo, pero que, a la vista de las experiencias de los usuarios, seguirán realizando un análisis de lo ocurrido. De hecho, la compañía ha asegurado que hará pública su investigación para que cualquiera pueda revisarla y replicarla.
Según Parag Agrawal, jefe de Tecnología de Twitter, el modelo de reconocimiento de imágenes del algoritmo necesita mejoras constantes. En un tuit publicado en la red social, ha asegurado que está expectante de aprender más de los experimentos realizados por los usuarios.
This is a very important question. To address it, we did analysis on our model when we shipped it, but needs continuous improvement.
Love this public, open, and rigorous test — and eager to learn from this. https://t.co/E8Y71qSLXa
— Parag Agrawal (@paraga) September 20, 2020
Curiosamente, el algoritmo de detección de imágenes de Twitter no utiliza reconocimiento facial. Al principio, cuando Twitter introdujo un algoritmo para recortar imágenes, intentaron incorporar uno, pero debido a que no todas las imágenes tienen caras, el algoritmo buscaba caras donde no las había. Esto daba lugar a vistas previas de imágenes sin mucho sentido, por lo que se abandonó esta técnica.