Facebook recompensará por crear una Inteligencia Artificial que entienda los memes
Los memes son una parte muy importante de la cultura de Internet, ya que suponen una herramienta sencilla de comunicar estados de ánimo y emociones en las redes sociales. Aunque la mayoría de los memes están pensados para arrancar una sonrisa al usuarios, algunos contienen mensajes de odio o discriminatorios… y cada vez se popularizan más.
Las Inteligencias Artificiales en la actualidad no son capaces de poner las imágenes en contexto
Facebook utiliza sistemas de Inteligencia Artificial (IA) para analizar los mensajes de su red y descubrir cualquier contenido que pueda resultar perjudicial u ofensivo. Estos mensajes, una vez detectados por los algoritmos, pasan a un grupo de moderadores que deciden si son perjudiciales o no. El problema que tienen estas IA es que analizan el texto, por lo que tienen problemas para identificar memes con contenido malicioso, pues no ponen en contexto el texto con la imagen.
Para solucionar este problema, la compañía ha ofrecido 100.000 dólares a cualquier desarrollador que pueda crear una IA capaz de identificar memes que contengan mensajes de odio. Este modelo de IA debe ser capaz de entender el texto, la imagen y también de poner ambos en contexto, para descifrar el mensaje.
Los desarrolladores que participen en este reto podrán trabajar con una base de datos de memes, con los que los algoritmos de Facebook han tenido problemas y que contiene imágenes con mensajes racistas, nacionalistas, de odio contra la religión, sexistas, contra la identidad o la orientación sexual.
Detectar el discurso de odio en las redes sociales es un problema complejo y los memes agregan una capa extra de complejidad, ya que tanto los moderadores como la IA tienen que ser capaces de comprender el contexto del meme publicado y el contexto cultural, racial y lingüístico cambia con frecuencia, por lo que tampoco es posible aplicar una solución única al problema. En este sentido, la propia compañía entiende que, con este reto, no encontrarán una solución integral a este problema, pero esperan hallar nuevas ideas que poder incorporar a sus algoritmos para mejorar la detección de este tipo de contenidos perjudiciales.