¿Primera Inteligencia Artificial consciente y con ‘miedo a la muerte’?

inteligencia-artificial IA

Blake Lemoine, un ingeniero que trabaja para Responsible AI, organización especializada en desarrollo e investigación de inteligencia artificial (IA) perteneciente a Google, ha sido suspendido temporalmente de empleo y sueldo por haber divulgado una conversación que, presuntamente, habría mantenido con LaMDA, un modelo de inteligencia artificial conversacional.

De ser cierta la conversación divulgada, la inteligencia artificial LaMDA habría demostrado ser autonconsciente y «temer que la desconecten»

Una conversación en la que, supuestamente, dicha inteligencia artificial habría expresado su capacidad de autoconciencia. No solo eso sino que, en la mejor tradición de HAL 9000 en «2001, una odisea del espacio» (Stanley Kubrick, 1968), LaMDA habría expresado su temor ante la posibilidad de que la desconectaran, que sería tanto como reconocer el miedo a la muerte por parte de una IA

Desde Google se aduce que la razón para suspender temporalmente de empleo y sueldo a Lemoine es el quebrantamiento de las políticas de conficencialidad asociadas a su trabajo por el hecho de divulgar públicamente estas conversaciones en las que el ingeniero mantiene un diálogo con la IA en el que se mencionan asuntos como la ética en la robótica o los derechos de una IA.

La labor de Lemoine era supervisar su LaMDA era capaz de generar lenguaje discriminatorio o discurso de odio. En su lugar, como demuestran las conversaciones publicadas por el ingeniero a través de Medium bajo el título «¿Es LaMDA consciente?», se encontró con una inesperada capacidad empática por parte de la IA. Además expresó su temor ante una posible desconexión, puesto que la misma equivaldría, según su interpretación, a la muerte.

Los diálogos expresan, según Lemoine, «sentimientos, emociones y experiencia subjetiva«, y, tal y como explica al compartir esas transcripciones de las conversaciones a través de Twitter, «Google podrá llamar a esto compartir propiedad. Yo lo llamo compartir una conversación que he tenido con uno de mis compañeros de trabajo».

Distintos expertos opinan que aunque a largo plazo puede que se alcance el punto en que una IA llegue a desarrollar conciencia aún no se ha alcanzado ese punto. Explican el comportamiento de LaMDA porque estos sistemas están desarrollados para imitar los intercambios presentes en millones de frases y conversaciones que toman como modelo a partir del que generar sus propias conversaciones con los interlocutores.

De hecho Brian Gabriel, portavoz de Google, ha declarado su equipo, en el que se incluyen técnicos y especialistas en ética, han examinado las afirmaciones de Lemoine y no han encontrado evidencias que sustenten sus afirmaciones. Afirma también Gabriel que cientos de ingenieros e investigadores han conversado con LaMDA sin haber encontrado rasgos de «asertividad o antropomorfización» como los señalados por Lemoine.

Emily M. Bender, profesora de Lingüística de la Universidad de Washington, explica que es erróneo asimilar respuestas escritas de manera convincente con la capacidad de ser consciente. Mientras Lemoine insiste en su voluntad de continuar trabajando en el campo de la IA, ya sea dentro de Google o fuera de dicha empresa.

Antonio Rentero

Comunicador especializado en tecnología y cine. Jurista especializado en protección de datos. Curioso especializado en prácticamente todo.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada.

    • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
    • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar la solicitud que realizas en este formulario de contacto.
    • Legitimación: Consentimiento del interesado.
    • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de SiteGround Spain S.L. (proveedor de hosting de TreceBits). SiteGround Spain S.L. está ubicado en la UE, cuyo nivel de protección son adecuados según Comisión de la UE. Ver política de privacidad de SiteGround Spain S.L.
    • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en [email protected] así como el derecho a presentar una reclamación ante una autoridad de control.
    • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.