¿Primera Inteligencia Artificial consciente y con ‘miedo a la muerte’?

inteligencia-artificial IA

Blake Lemoine, un ingeniero que trabaja para Responsible AI, organización especializada en desarrollo e investigación de inteligencia artificial (IA) perteneciente a Google, ha sido suspendido temporalmente de empleo y sueldo por haber divulgado una conversación que, presuntamente, habría mantenido con LaMDA, un modelo de inteligencia artificial conversacional.

De ser cierta la conversación divulgada, la inteligencia artificial LaMDA habría demostrado ser autonconsciente y «temer que la desconecten»

Una conversación en la que, supuestamente, dicha inteligencia artificial habría expresado su capacidad de autoconciencia. No solo eso sino que, en la mejor tradición de HAL 9000 en «2001, una odisea del espacio» (Stanley Kubrick, 1968), LaMDA habría expresado su temor ante la posibilidad de que la desconectaran, que sería tanto como reconocer el miedo a la muerte por parte de una IA

Desde Google se aduce que la razón para suspender temporalmente de empleo y sueldo a Lemoine es el quebrantamiento de las políticas de conficencialidad asociadas a su trabajo por el hecho de divulgar públicamente estas conversaciones en las que el ingeniero mantiene un diálogo con la IA en el que se mencionan asuntos como la ética en la robótica o los derechos de una IA.

La labor de Lemoine era supervisar su LaMDA era capaz de generar lenguaje discriminatorio o discurso de odio. En su lugar, como demuestran las conversaciones publicadas por el ingeniero a través de Medium bajo el título «¿Es LaMDA consciente?», se encontró con una inesperada capacidad empática por parte de la IA. Además expresó su temor ante una posible desconexión, puesto que la misma equivaldría, según su interpretación, a la muerte.

Los diálogos expresan, según Lemoine, «sentimientos, emociones y experiencia subjetiva«, y, tal y como explica al compartir esas transcripciones de las conversaciones a través de Twitter, «Google podrá llamar a esto compartir propiedad. Yo lo llamo compartir una conversación que he tenido con uno de mis compañeros de trabajo».

Distintos expertos opinan que aunque a largo plazo puede que se alcance el punto en que una IA llegue a desarrollar conciencia aún no se ha alcanzado ese punto. Explican el comportamiento de LaMDA porque estos sistemas están desarrollados para imitar los intercambios presentes en millones de frases y conversaciones que toman como modelo a partir del que generar sus propias conversaciones con los interlocutores.

De hecho Brian Gabriel, portavoz de Google, ha declarado su equipo, en el que se incluyen técnicos y especialistas en ética, han examinado las afirmaciones de Lemoine y no han encontrado evidencias que sustenten sus afirmaciones. Afirma también Gabriel que cientos de ingenieros e investigadores han conversado con LaMDA sin haber encontrado rasgos de «asertividad o antropomorfización» como los señalados por Lemoine.

Emily M. Bender, profesora de Lingüística de la Universidad de Washington, explica que es erróneo asimilar respuestas escritas de manera convincente con la capacidad de ser consciente. Mientras Lemoine insiste en su voluntad de continuar trabajando en el campo de la IA, ya sea dentro de Google o fuera de dicha empresa.

Antonio Rentero

Comunicador especializado en tecnología y cine. Jurista especializado en protección de datos. Curioso especializado en prácticamente todo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS

Responsable: TreceBits S.L. (TreceBits)
Finalidad: Que puedan comentar las noticias publicadas
Legitimación: Consentimiento del interesado. Satisfacción del interés legítimo del Responsable.
Destinatarios: No se cederán a terceros salvo obligación legal.
Derechos: Puedes ejercitar en cualquier momento tus derechos de acceso, rectificación, supresión, limitación, oposición y demás derechos legalmente establecidos a través del siguiente e-mail: [email protected].
Información adicional: Puedes consultar la información adicional y detallada sobre protección de datos aquí.