Peligros del desarrollo de la Inteligencia Artificial

Robot Inteligencia Artificial

Los sistemas de Inteligencia Artificial no son una tecnología nueva, recién llegada, sino que llevan años desarrollándose. Sin embargo, es en los últimos meses en los que se está cuestionando su utilidad y, sobre todo, los peligros que pueden suponer.

¿Es necesario regular el desarrollo de las Inteligencias Artificiales? ¿Suponen un peligro para la Humanidad?

El boom mediático que ha supuesto el sistema de Inteligencia Conversacional ChatGPT, desarrollado por OpenIA, ha puesto en el ojo del huracán esta tecnología que tiene muchas más aplicaciones prácticas que la de poder conversar con un programa informático como si fuera con un humano, o crear contenidos elaborados a partir de otros textos publicados.

El avance de la Inteligencia Artificial -y el escaso marco normativo que regule su actividad en la actualidad- está llevando a muchos usuarios a preguntarse si realmente estamos preparados para ello. Incluso algunos de los nombres más importantes del panorama tecnológico internacional han mostrado su preocupación.

El siempre excéntrico fundador de Tesla y propietario de Twitter, Elon Musk, incluso ha realizado un llamamiento firmado por un millar de investigadores. Entre ellos se encuentra el cofundador de Apple Steve Woxnial o el cofundador de Skype, Jaan Tallin, quienes defienden que se detengan unos meses el desarrollo de las Inteligencias Artificiales. Según él, nos encontramos en «una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”.

Riesgos de la Inteligencia Artificial para la Humanidad

Musk considera la IA como uno de los principales riesgos para la Humanidad, a pesar de ser uno de los fundadores de OpenIA.

Según los firmantes de ese documento, los sistemas de Inteligencia Artificial pueden suponer un profundo riesgo para la sociedad y la humanidad, puesto que no se están desarrollando de forma cuidada y planificada.

La mayor parte de las grandes empresas tecnológicas está trabajando por desarrollar su propia tecnología, y se está produciendo una especie de carrera sin control por ser el primero que imponga sus desarrollos. En muchos casos, según los firmantes, ni siquiera los creadores de estos sistemas entienden sus implicaciones y alcance. Dudan incluso de que puedan controlarlos con fiabilidad.

Pausando los desarrollos -que no dejando de investigar en ella- se daría tiempo a los Gobiernos a poder legislar marcos regulatorios que velen por el desarrollo de estos sistemas. También se les solicita que sean capaces de anticiparse a las situaciones que sus aplicaciones prácticas podrían suponer.

Marco Regulatorio de la Inteligencia Artificial

Por el momento, se sabe que la Unión Europea está preparando una regulación sobre la Inteligencia Artificial, la llamada Artificial Intelligence Act, que establecería un sistema de escalas de riesgos. Habría sistemas que necesitarían pocas regulaciones para poder funcionar, mientras que otros que se identificaran como demasiados peligrosos serían inaceptables.

De momento, la legislación se encuentra en fase de debate por parte del Parlamento Europeo, por lo que pueden pasar años hasta que se empiece a aplicar un marco regulatorio. Algunas naciones, como es el caso de Italia, han tomado algunas medidas, como la reciente prohibición de uso de ChatGPT hasta que se pueda regular el uso de datos personales que realiza esta tecnología de IA conversacional. No deja de ser un ejemplo puntual y aislado.

Que se debería regular la seguridad de las Inteligencias Artificiales parece algo obvio. Algunos expertos solicitan la creación de un organismo supranacional que sea capaz de controlar el desarrollo de tecnologías de potencial muy peligroso tanto para las personas como para determinadas industrias, como podrían ser la aviación o la industria farmacéutica.

En definitiva, se supone que el desarrollo de la IA no es negativo, pero sí puede serlo que se haga sin regulación.

¿Cuáles son los principales problemas de la IA?

Teniendo en cuenta la situación explicada anteriormente, se pueden señalar una serie de riesgos que el desarrollo de la Inteligencia Artificial de forma poco controlada puede suponer:

-Mayor control. Que existan «super-inteligencias» que sean capaces de controlar las máquinas y tomar decisiones de forma autónoma puede suponer, según algunos expertos, que los humanos quedasen sometidos a su control.

¿Y si se produjeran errores -humanos- en la programación de las Inteligencias Artificiales? ¿Y si estas tomasen decisiones de riesgo de forma autónoma? Las consecuencias podrían ser impredecibles. ¿Y si llegado el momento, unas inteligencias artificiales -ya superiores al cerebro humano- decidieran conectarse unas con otras, sumando sus atributos y poder? Se crearían así super-inteligencias que el hombre sería incapaz de controlar.

De la misma manera, que instituciones o gobiernos tuvieran acceso a este tipo de tecnología y decidieran emplearla para tener un mayor control sobre sus ciudadanos podría ser otro riesgo, en la práctica, que fuese posible que ocurriese.

Desinformación y pérdida de la realidad

¿Cómo podemos saber que el contenido que está generando una Inteligencia Artificial conversacional no está manipulado? Si ya existían problemas para identificar las Fake News, ahora el problema se lleva a otro nivel. Dependiendo del nivel de desarrollo de la IA, podría estar tomando como fuente contenidos que ya fuesen falsos. O incluso la IA podría llegar a un nivel de desarrollo en el que manipulara arbitrariamente la veracidad de los contenidos con un determinado fin. ¿Cómo podría controlarse esto?

Un paso sería obligar a que se identificaran como generados por Inteligencia Artificial los contenidos publicados -como ha ocurrido recientemente con la publicación de la primera fotografía generada por IA en el diario El Mundo- pero… ¿cuántos usuarios no leerían el texto que acompaña a esa imagen indicando que ha sido generado por una IA y creerían en ella? ¿Y si se comparte sin señalar que ha sido creada por una IA? Daría lugar a situaciones de desinformación cuyo riesgo sería posiblemente difícil de identificar en la actualidad.

-Realidad y Protección de datos. Relacionado con el punto anterior, además de difundir información falsa, las IA podrían llegar a crear situaciones ficticias casi perfectas, en las que los humanos no sepan si lo que están viendo es real o no.

También podría tener lugar situaciones de sesgo o racismo que fuesen difíciles de controlar. Además, en situaciones tan complejas como las señaladas, sería prácticamente imposible proteger la privacidad de los usuarios ni el acceso a información personal por parte de las máquinas.

¿Las máquinas quitarán el trabajo a los humanos?

¿Supondrán las Inteligencias Artificiales la eliminación de puestos de trabajo? Muchos expertos -entre ellos Bill Gates- señalan que la aplicación práctica de las IA deberían hacer más fácil el desarrollo de su labor a los trabajadores. Incluso podrían llegar a permitirles trabajar más rápido o menos horas, pero no vendrían a sustituir su labor. Sin embargo… ¿de qué manera se controlará esto?

Es cierto que las IA no podrán sustituir -al menos de momento- la labor y el valor añadido que supone el trabajo humano, pero en tareas mecánicas sí podrían encargarse de realizarlas. O podría suponer un riesgo para aquellos que no desarrollen adecuadamente su trabajo.

Por ejemplo, si un redactor se dedica a copiar contenidos de otras páginas web… sin aportar nada ni enriquecer los textos con otros elementos… esa labor por supuesto podría llevarla a cabo mecánicamente, y más rápido, una Inteligencia Artificial.

Por otro lado, también hay que considerar que la llegada de estas nuevas tecnologías supondrán la desaparición de algunos puestos de trabajo, pero también la creación de muchos otros. Esta teoría es defendida por muchos expertos que señalan que forma parte del proceso evolutivo, y que a lo largo de la historia la Humanidad ya ha visto cómo la llegada de las máquinas eliminaba profesiones pero generaba otras en muchas ocasiones.

Riesgos para determinadas industrias

La aplicación de Inteligencia Artificial en industrias como la farmacéutica puede llevar implicados riesgos adicionales. Por ejemplo, al tratar con la experimentación con seres vivos o el desarrollo de medicamentos. Lo mismo ocurriría en la industria armamentística, donde se pudiera dejar el control de las armas sensibles o nucleares a IA que, en un determinado momento, pudieran tomar una decisión de forma autónoma.

Conviene reflexionar sobre todo esto, no para frenar el avance de la tecnología, sino para conocer los riesgos y tratar de evitarlos ahora que su implantación todavía no es masiva y se encuentra en una fase inicial. El desarrollo tecnológico debe aportar beneficios a la Humanidad, pero para ello quizá sea necesario establecer un marco regulatorio claro en el que la evolución se desarrolle de manera segura para todos.

Manuel Moreno

Periodista y director de TreceBits. Experto en Redes Sociales, Internet y Tecnología. Formador y conferenciante. Colaborador en prensa, radio y TV. Autor de cinco libros de Social Media. Más información en manuelmoreno.es

Deja un comentario

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS

Responsable: TreceBits S.L. (TreceBits)
Finalidad: Que puedan comentar las noticias publicadas
Legitimación: Consentimiento del interesado. Satisfacción del interés legítimo del Responsable.
Destinatarios: No se cederán a terceros salvo obligación legal.
Derechos: Puedes ejercitar en cualquier momento tus derechos de acceso, rectificación, supresión, limitación, oposición y demás derechos legalmente establecidos a través del siguiente e-mail: [email protected].
Información adicional: Puedes consultar la información adicional y detallada sobre protección de datos aquí.