Los emojis dificultan la persecución del acoso online

Fondo pantalla con tus emojis favoritos

Un estudio del Oxford Internet Institute concluye que la utilización de emoticonos complica la detección y persecución del acoso en Internet: algunas publicaciones ofensivas pueden no ser detectadas mientras que, al contrario, comentarios inocuos pueden ser marcados por error como si contuvieran mensajes agresivos.

Los emojis o emoticonos permiten añadir contexto emocional a un mensaje por la representación gráfica de emociones

El problema llega cuando son algoritmos los encargados de interpretar el contenido de los mensajes y discriminar si se trata de publicaciones ofensivas, agresivas o abusivas, pero no son capaces de interpretar adecuadamente el contexto añadido por la presencia de un emoticono, un elemento de representación gráfica de emociones que tiene sus propias reglas de uso si se pretende que sirva adecuadamente al concepto para el que nació: ayudar a contextualizar la comunicación basada en texto.

El estudio cita mensajes ofensivos dirigidos contra algunos futbolistas tras la derrota de la selección inglesa en la Eurocopa de 2020, donde el contenido iba acompañado de emoticonos que representaban a monos.

Y el problema es que la mayoría de sistemas que en la actualidad se emplean para monitorizar de manera automática los contenidos están entrenados para reconocer cadenas de texto, pero no emoticonos. Un análisis de la cadena televisiva británica Sky News explica que las publicaciones con contenido racista en Instagram donde aparecen emojis tienen tres veces menos posibilidades de ser bloqueadas por la red social que las que sólo contienen texto.

Para tratar de contrarrestar esta situación, los investigadores del Oxford Internet Institute han elaborado una base de datos de unas 4.000 frases, la mayoría de las cuales incluyen emoticonos con ánimo ofensivo, con el propósito de adiestrar un modelo de inteligencia artificial que sea capaz de comprender qué mensajes son ofensivos y cuáles no. Inicialmente se añade el elemento humano que sirve como guía para orientar en la interpretación de qué sutiles detalles convierten en ofensivo a un mensaje.

Se tienen en cuenta cuestiones relacionadas con raza, género, identidad sexual, sexualidad, religión y discapacidad, analizando las distintas formas en que los emoticonos pueden resultar ofensivos. El modelo consiguió una mejora del 30 % en la correcta identificación de si un contenido es o no ofensivo, mejorando un 80% la detección de dicha cualidad en relación con el uso de emoticonos, aunque los propios investigadores reconocen que la tecnología aún está lejos de ser completamente efectiva.

Entre otras cuestiones, la propia evolución del lenguaje complica esta tarea, pudiendo darse la circunstancia de que existan falsos positivos que silencien la voz de algunos colectivos. Esto enlaza con los resultados de una investigación efectuada en la Universidad de Sao Paulo, donde detectaron mediante la aplicación de un algoritmo que las cuentas de Twitter pertenecientes a drag queens aparentemente generaban más mensajes tóxicos que las pertenecientes a supremacistas blancos, por la sencilla razón de que algunos colectivos emplean un lenguaje propio que puede resultar aparentemente más ofensivo a receptores del mensaje ajenos a dicho colectivo, aunque para el contexto interno de dicho colectivo realmente no se tome como ofensivo.

Hannah Rose Kirk, directora del proyecto de investigación llevado a cabo por el Oxford Internet Institute, explica que han decidido compartir los datos de su estudio a fin de que otros estudiosos puedan mejorar sus propios modelos, resaltando que las plataformas sociales disponen de estudios similares que guardan celosamente y que, de compartirlos, podría ayudar a mejorar el escrutinio acertado de los mensajes de odio y acoso.

Antonio Rentero

Comunicador especializado en tecnología y cine. Jurista especializado en protección de datos. Curioso especializado en prácticamente todo.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
    • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar la solicitud que realizas en este formulario de contacto.
    • Legitimación: Consentimiento del interesado.
    • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de SiteGround Spain S.L. (proveedor de hosting de TreceBits). SiteGround Spain S.L. está ubicado en la UE, cuyo nivel de protección son adecuados según Comisión de la UE. Ver política de privacidad de SiteGround Spain S.L.
    • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en [email protected] así como el derecho a presentar una reclamación ante una autoridad de control.
    • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.