Facebook elimina 73 millones de contenidos de odio en tres meses

Facebook ha eliminado 73 millones de publicaciones en la red social y en Instagram durante los últimos tres meses por incitar al odio o incluir imágenes violentas, explotación infantil o fomentar el bullying, entre otras causas. Así lo ha publicado la compañía en el «Community Standards Enforcement Report«, un estudio que analiza cómo se han llevado a cabo las políticas de protección de contenidos en las dos plataformas durante los meses de julio a septiembre de 2020.
El 0,11% de los contenidos en Facebook incita al odio
En el informe se incluyen métricas sobre 12 políticas en Facebook y sobre 12 normas en Instagram, pero por primera vez se analiza la presencia del discurso de odio en Facebook de forma global. Según los datos de la compañía, el porcentaje de prevalencia del odio en Facebook fue del 0,11% en los meses analizados. Es decir, que cada 10.000 visualizaciones de contenido en ambas redes sociales, 11 contenidos incitaban al odio.
Según la compañía, gracias al empleo de la Inteligencia Artificial, han logrado eliminar más discurso de odio en Facebook e Instagram que en trimestres anteriores de forma proactiva, y todo ello en un contexto dominado por la pandemia de Covid-19, en el que también se han popularizado contenidos antivacunas –prohibidos por completo en la red social desde hace unas semanas- y desinformación. El informe determina la eliminación de los siguientes contenidos:
-En Facebook:
22,1 millones de artículos que suponían discurso de odio, de los cuales el 95% fue identificado de forma proactiva.
19,2 millones de contenidos gráficos violentos (mientras que en el segundo trimestre del año se identificaron 15 millones)
12,4 millones de contenidos sobre explotación sexual infantil (en el segundo trimestre fueron 9,5 millones)
3,5 millones de contenidos considerados bullying (en el trimestre anterior se identificaron 2,4 millones)
-En Instagram:
6,5 millones de contenidos que suponían discurso de odio, de los cuales el 95% fue identificado de forma proactiva.
4.1 millones de contenidos gráficos violentos (mientras que en el segundo trimestre del año se identificaron 3,1 millones)
1 millón de contenidos sobre explotación sexual infantil (más del doble que el trimestre anterior)
2.6 millones de contenidos considerados bullying (en el trimestre anterior se identificaron 2,3 millones)
1.3 millones de publicaciones sobre suicidio y autolesiones (en el segundo trimestre del año «sólo» se habían registrado 277.440).
En total, son casi 73 millones de publicaciones las retiradas durante el último trimestre en ambas plataformas. Facebook ha asegurado que continuará expandiendo su tecnología de detección automatizada en los próximos meses, sobre todo para contenidos publicados en idiomas como el inglés, el español y el árabe.