Google usará Inteligencia Artificial para detectar búsquedas de personas en peligro

Google aplicaciones y servicios eliminados

En un momento de crisis muchas personas se vuelcan a hacerle preguntas a quien saben que les va a dar siempre una respuesta: Google. Todos los días, los buscadores de la compañía registran consultas relacionadas con el suicidio, el abuso sexual o el maltrato. Ante esta situación, Google ha anunciado que empezará a aplicar técnicas basadas en la Inteligencia Artificial para ayudar a estas personas a encontrar ayuda en el momento en el que más lo necesitan.

Google incorporará un sistema de machine learning para detectar búsquedas relacionadas con intentos de suicidio, maltrato o abusos sexuales

La empresa integrará en su motor de búsqueda el conocido como MUM, su último modelo de machine learning. Este algoritmo está diseñado para detectar de forma precisa, a través de las búsquedas en Google, los rasgos que indican que una persona está atravesando una crisis grave.

Google presentó MUM el pasado otoño, en el marco de su conferencia anual IO. Desde entonces, ha utilizado esta herramienta para diversas funciones relacionadas con las búsquedas aumentadas, que tratan de averiguar rasgos del usuario a partir de sus búsquedas en la web.

En este caso, MUM será capaz de detectar qué búsquedas pueden estar relacionadas con un momento personal difícil. De ese modo, el buscador podrá ofrecerle al usuario información de calidad relacionada con la salud y la seguridad.

Anne Merrit, jefa de producto de Google para temas relacionados con la salud, ha explicado que “MUM es capaz de entender búsquedas complejas como ‘por qué él me ha agredido al decirle que no le quiero’”. Según Merrit, “para un humano es obvio que es una búsqueda relacionada con violencia de género. Pero este tipo de preguntas no resultan tan evidentes para un sistema de Inteligencia Artificial”.

Sin embargo, no todo son buenas noticias en este anuncio de Google. El creciente uso de sistemas de machine learning por parte de la empresa puede dar lugar a sesgos y desinformación en los resultados obtenidos. Además, estos sistemas de Inteligencia Artificial son opacos y solo sus ingenieros tienen acceso a su mecanismo de funcionamiento.

Bernardo Álvarez

Graduado en psicología y periodista entre Asturias y Madrid. Interesado en política internacional, tecnología, medio ambiente y cultura

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS

Responsable: TreceBits S.L. (TreceBits)
Finalidad: Que puedan comentar las noticias publicadas
Legitimación: Consentimiento del interesado. Satisfacción del interés legítimo del Responsable.
Destinatarios: No se cederán a terceros salvo obligación legal.
Derechos: Puedes ejercitar en cualquier momento tus derechos de acceso, rectificación, supresión, limitación, oposición y demás derechos legalmente establecidos a través del siguiente e-mail: [email protected].
Información adicional: Puedes consultar la información adicional y detallada sobre protección de datos aquí.