Los emojis dificultan la persecución del acoso online

Un estudio del Oxford Internet Institute concluye que la utilización de emoticonos complica la detección y persecución del acoso en Internet: algunas publicaciones ofensivas pueden no ser detectadas mientras que, al contrario, comentarios inocuos pueden ser marcados por error como si contuvieran mensajes agresivos.
Los emojis o emoticonos permiten añadir contexto emocional a un mensaje por la representación gráfica de emociones
El problema llega cuando son algoritmos los encargados de interpretar el contenido de los mensajes y discriminar si se trata de publicaciones ofensivas, agresivas o abusivas, pero no son capaces de interpretar adecuadamente el contexto añadido por la presencia de un emoticono, un elemento de representación gráfica de emociones que tiene sus propias reglas de uso si se pretende que sirva adecuadamente al concepto para el que nació: ayudar a contextualizar la comunicación basada en texto.
El estudio cita mensajes ofensivos dirigidos contra algunos futbolistas tras la derrota de la selección inglesa en la Eurocopa de 2020, donde el contenido iba acompañado de emoticonos que representaban a monos.
Y el problema es que la mayoría de sistemas que en la actualidad se emplean para monitorizar de manera automática los contenidos están entrenados para reconocer cadenas de texto, pero no emoticonos. Un análisis de la cadena televisiva británica Sky News explica que las publicaciones con contenido racista en Instagram donde aparecen emojis tienen tres veces menos posibilidades de ser bloqueadas por la red social que las que sólo contienen texto.
Para tratar de contrarrestar esta situación, los investigadores del Oxford Internet Institute han elaborado una base de datos de unas 4.000 frases, la mayoría de las cuales incluyen emoticonos con ánimo ofensivo, con el propósito de adiestrar un modelo de inteligencia artificial que sea capaz de comprender qué mensajes son ofensivos y cuáles no. Inicialmente se añade el elemento humano que sirve como guía para orientar en la interpretación de qué sutiles detalles convierten en ofensivo a un mensaje.
Se tienen en cuenta cuestiones relacionadas con raza, género, identidad sexual, sexualidad, religión y discapacidad, analizando las distintas formas en que los emoticonos pueden resultar ofensivos. El modelo consiguió una mejora del 30 % en la correcta identificación de si un contenido es o no ofensivo, mejorando un 80% la detección de dicha cualidad en relación con el uso de emoticonos, aunque los propios investigadores reconocen que la tecnología aún está lejos de ser completamente efectiva.
Entre otras cuestiones, la propia evolución del lenguaje complica esta tarea, pudiendo darse la circunstancia de que existan falsos positivos que silencien la voz de algunos colectivos. Esto enlaza con los resultados de una investigación efectuada en la Universidad de Sao Paulo, donde detectaron mediante la aplicación de un algoritmo que las cuentas de Twitter pertenecientes a drag queens aparentemente generaban más mensajes tóxicos que las pertenecientes a supremacistas blancos, por la sencilla razón de que algunos colectivos emplean un lenguaje propio que puede resultar aparentemente más ofensivo a receptores del mensaje ajenos a dicho colectivo, aunque para el contexto interno de dicho colectivo realmente no se tome como ofensivo.
Hannah Rose Kirk, directora del proyecto de investigación llevado a cabo por el Oxford Internet Institute, explica que han decidido compartir los datos de su estudio a fin de que otros estudiosos puedan mejorar sus propios modelos, resaltando que las plataformas sociales disponen de estudios similares que guardan celosamente y que, de compartirlos, podría ayudar a mejorar el escrutinio acertado de los mensajes de odio y acoso.