Una foto bastará para reconocer tu orientación sexual

IA

En la mayoría de los casos, los avances en tecnología son positivos y beneficiosos para los usuarios. La Inteligencia Artificial, lejos de ser considerada una realidad de ciencia ficción, está presente en aparatos y aplicaciones que usamos de forma diaria. Incluso en forma de juego podemos encontrar ejemplos de cómo funcionan los algoritmos que detectan expresiones faciales. Pero, como casi todo, el refinamiento de la AI puede poner en serio peligro la seguridad de nuestras identidades.

Kosinski alega que los gobiernos ya trabajan con algoritmos capaces de reconocer facialmente a manifestantes y agitadores

Un experimento llevado a cabo por la Universidad de Standford asegura que los programas informáticos de Inteligencia Artificial ya son capaces de discernir entre la orientación sexual de las personas analizando únicamente sus rostros. Imagínense esto aplicado a intereses comerciales, por ejemplo.

Según este estudio, elementos que el ojo humano no distingue son comunes en las caras de los heterosexuales y homosexuales. El informe resultante ha sido criticado duramente, acusado de estereotipar y de ser «ciencia basura».

Incluso algunas asociaciones LGTBI han cargado contra el experimento, argumentando que este algoritmo podría despertar el interés de grupos homófobos y gobiernos que persiguen la homosexualidad para apuntar a personas concretas y atacarlas.

Para elaborar el informe se escogieron 14.000 imágenes de estadounidenses que habían accedido recientemente a una página web de citas, y el algoritmo reconocía la orientación sexual de cada individuo con un porcentaje de acierto del 81% en los hombres y el 71% en las mujeres.

El profesor que dirigió el estudio, Michal Kosinski, ha afirmado que la verdadera conclusión del experimento es que prueba que la AI es capaz de llegar más lejos que el ser humano en todas sus vertientes.

La orientación sexual es solo una parte de las características que puede reconocer un algoritmo con una imagen de una cara, pero también se puede conocer, según el profesor, la predisposición para matar, el coeficiente intelectual o las inclinaciones políticas.

El impacto que una herramienta de estas características puede tener a escala social es inimaginable. Según Kosinski, los gobiernos ya trabajan a este nivel de refinamiento en sus sistemas informáticos, y el hecho de que su estudio haya puesto el foco en el problema de la falta de privacidad ayudará a que se regule, de alguna manera, la información a la que las instituciones tienen acceso.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.