Una foto bastará para reconocer tu orientación sexual

IA

En la mayoría de los casos, los avances en tecnología son positivos y beneficiosos para los usuarios. La Inteligencia Artificial, lejos de ser considerada una realidad de ciencia ficción, está presente en aparatos y aplicaciones que usamos de forma diaria. Incluso en forma de juego podemos encontrar ejemplos de cómo funcionan los algoritmos que detectan expresiones faciales. Pero, como casi todo, el refinamiento de la AI puede poner en serio peligro la seguridad de nuestras identidades.

Kosinski alega que los gobiernos ya trabajan con algoritmos capaces de reconocer facialmente a manifestantes y agitadores

Un experimento llevado a cabo por la Universidad de Standford asegura que los programas informáticos de Inteligencia Artificial ya son capaces de discernir entre la orientación sexual de las personas analizando únicamente sus rostros. Imagínense esto aplicado a intereses comerciales, por ejemplo.

Según este estudio, elementos que el ojo humano no distingue son comunes en las caras de los heterosexuales y homosexuales. El informe resultante ha sido criticado duramente, acusado de estereotipar y de ser “ciencia basura”.

Incluso algunas asociaciones LGTBI han cargado contra el experimento, argumentando que este algoritmo podría despertar el interés de grupos homófobos y gobiernos que persiguen la homosexualidad para apuntar a personas concretas y atacarlas.

Para elaborar el informe se escogieron 14.000 imágenes de estadounidenses que habían accedido recientemente a una página web de citas, y el algoritmo reconocía la orientación sexual de cada individuo con un porcentaje de acierto del 81% en los hombres y el 71% en las mujeres.

El profesor que dirigió el estudio, Michal Kosinski, ha afirmado que la verdadera conclusión del experimento es que prueba que la AI es capaz de llegar más lejos que el ser humano en todas sus vertientes.

La orientación sexual es solo una parte de las características que puede reconocer un algoritmo con una imagen de una cara, pero también se puede conocer, según el profesor, la predisposición para matar, el coeficiente intelectual o las inclinaciones políticas.

El impacto que una herramienta de estas características puede tener a escala social es inimaginable. Según Kosinski, los gobiernos ya trabajan a este nivel de refinamiento en sus sistemas informáticos, y el hecho de que su estudio haya puesto el foco en el problema de la falta de privacidad ayudará a que se regule, de alguna manera, la información a la que las instituciones tienen acceso.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales desde marzo de 2017.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Utilizamos cookies propias y de terceros para ofrecerte el mejor servicio. Si continúas navegando, entendemos que aceptas su uso. Puedes obtener más información aquí. ACEPTAR
Aviso de cookies