¿Qué es ImageNet Roulette y por qué se ha hecho viral?

Una página web llamada ImageNet Roulette se ha vuelto viral en Twitter y su principal atractivo es que permite a los usuarios subir selfies y dejar que una herramienta de Inteligencia Artificial adivine qué tipo de personas son por su apariencia.
Imagenet Roulette ha mostrado sesgos racistas en una base de datos de inteligencia artificial de universidades de Estados Unidos
Para poder sacar sus conclusiones, esta herramienta se basa en la base de datos ImageNet, que tiene 14 millones de imágenes de personas recopiladas por prestigiosas universidades de Estados Unidos, acompañadas de etiquetas y descripciones de esas personas.
Lo curioso es que esta web ha sido creada para hacer a los usuarios pensar sobre los prejuicios y los riesgos de la Inteligencia Artificial. La cofundadora del AI Now Institute, Kate Crawford, y el artista Trevor Paglen, creadores de la web, han querido dejar en evidencia los peligros que puede tener el uso de conjuntos de datos erróneos que puede llevar a un sesgo racial o de género a la IA.
De hecho, el periodista de New Statesman, Stephen Bush, ha destacado en su perfil de Twitter que la clasificación que se hizo de él, al no ser de tez clara, fue racista, al definirlo con términos como «mala persona» o «convicto».
Fascinating insight into the classification system and categories used by Stanford and Princeton, in the software that acts as the baseline for most image identification algorithms. pic.twitter.com/QWGvVhMcE4
— Stephen Bush (@stephenkb) September 16, 2019
Los creadores de la aplicación explican que «ImageNet Roulette en ocasiones clasifica a las personas de manera cruel«. Esto se debe a que los datos en los que se basa son imágenes de personas que han sido etiquetadas con esas categorías. Los creadores de esta herramienta no son las personas que han elaborado esa base de datos, sino que lo que hicieron fue importar las descripciones y las imágenes de ImageNet, una herramienta creada en las universidades de Princeton y en la de Stanford y que se usa como referencia para la clasificación de fotografías y la detección de objetos.
El objetivo es crear consciencia entre los usuarios de cómo la Inteligencia Artificial puede basarse en prejuicios humanos, parecen haberlo cumplido. Cabe recordar que el pasado mes de julio Facebook sufrió un error informático que dejó al descubierto cómo sus propios sistemas de Inteligencia Artificial definen las fotografías que los usuarios suben. De este modo, aparecían etiquetas del siguiente estilo: «La imagen puede contener: 1 persona, primer plano, 2 personas sonriendo, personas de pie».