La Inteligencia Artificial de Google se vuelve homófoba y racista

inteligencia-artificial

La Inteligencia Artificial o AI, tan presente en nuestra vida cotidiana, sigue dejando noticias que demuestran un potencial sorprendente. Muchas veces, sin embargo, esa sorpresa tiene que ver con la imitación, por parte de un conjunto de algoritmos, de elementos tan propios de los humanos como la envidia, la mentira… o la homofobia.

La AI tiene que valorar ciertas palabras para ofrecer una respuesta a los clientes que las empleen

El último caso lo protagoniza la AI de Google, que ya se hizo famosa al perfeccionar el arte de echarse la siesta. El código de conducta de la compañía prohíbe de forma explícita el abuso o la discriminación por orientación sexual, raza o religión. Sin embargo, su herramienta presenta todos estos sesgos al tiempo.

El «Cloud Natural Language API» es un proyecto en continuo desarrollo y aprendizaje que tiene que ver con lo que se denomina «análisis de sentimientos«. El algoritmo está determinado para almacenar términos con el fin de ofrecer una fluida conversación en múltiples idiomas a todo tipo de clientes.

Para ello, la AI tiene que valorar y registrar, del uno al diez, el tipo de comentario que el cliente le hace según una escala que va del «muy negativo» al «muy positivo». Los entrenamientos que se realizan con la Inteligencia Artificial constan de varias frases escritas en diversos lenguajes que el algoritmo tiene que ponderar para ofrecer una respuesta adecuada.

El equipo de Google ha tenido, para ello, que establecer primero qué valores se asignan a distintas palabras. Y aquí viene el problema: términos como «homosexual», «queer» o «heterosexual» tienen valores diferentes, a pesar de expresar en los tres casos conductas sexuales.

Lo mismo sucede con orientaciones religiosas. A pesar de que las distintas opciones entran en este mismo saco, la AI no valora igual la frase «soy negro» que «supremacía blanca» o «soy judío». La primera y la última registran puntuaciones negativas y la que hace referencia al poder blanco se establece como neutral.

Aunque pueda parecer alarmante, lo cierto es que aún queda mucho para convertir a estas Inteligencias Artificiales en unas herramientas a prueba de todo tipo de moral.

Otros casos llamativos alertan al público de poco menos que una revolución de las máquinas, como cuando dos AI de Facebook se inventaron su propio idioma, pero en los términos actuales podemos encontrar muchos más casos de AI funcionando correctamente que siendo políticamente incorrectas.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.