Se filtran las normas de moderación de contenidos de Facebook

El año que acaba de terminar ha sido especialmente duro para Facebook. La red social se ha enfrentado a los mayores problemas de su historia, que empezaron con el escándalo de Cambridge Analytica, que consistió en la filtración de datos personales de más de 87 millones de usuarios y su posterior uso con fines políticos.
La filtración de las reglas que siguen los moderadores de Facebook a finales de diciembre supuso el último golpe que el 2018 tenía reservado para la red social
Pero no solo eso. El contenido en la red social también ha sido motivo de preocupación. La enorme cantidad de usuarios de la plataforma y la ingente cantidad de mensajes que comparten da lugar a que no pueda comprobarse todo y mucho contenido no apropiado acabe siendo publicado en ella. El mayor ejemplo ha sido el torrente de información falsa que incendió Myanmar en una serie de disturbios que casi alcanzaron el nivel de limpieza étnica.
Para combatirlo, Facebook define este contenido que no debería aparecer en la plataforma en sus normas de la comunidad, pero las reglas que siguen los moderadores para aplicar estos principios en situaciones locales eran desconocidas.
Al menos hasta ahora, ya que el periódico New York Times ha filtrado las guías que sigue la empresa a la hora de moderar el contenido de manera local. Algunos de los documentos filtrados, que constan más de 1.400 páginas, detallan las normas que siguen los más de 7.500 moderadores de contenido de la compañía para luchar contra el contenido que va contra las reglas y no puede ser eliminado de manera automática
La publicación de un vídeo de un asesinato es algo que probablemente sea eliminado de manera automática de la plataforma, pero algunas transgresiones más sutiles (como el discurso de odio) necesitan intervención humana. Este tipo de contenido varía enormemente según la situación geográfica, por lo que Facebook ha orientado estas normas a cada una de las regiones en las que opera.
En concreto, las guías de los moderadores a las que ha tenido acceso el periódico son presentaciones de Power Point, que el rotativo estadounidense no duda en juzgar de erróneas, deficientes y desactualizadas.
Por ejemplo, en lo relativo a los Balcanes, se describe al criminal de guerra Ratko Mladic como fugado, a pesar de que fue arrestado en 2011. Se trata de un error menor, pero sin duda sirve para hacerse una idea sobre la precisión de las normas.
Por otra parte, los moderadores de Facebook están subcontratados, y según el periódico, en ocasiones recurren a traductores online para juzgar si un contenido es válido o no, ya que no conocen las lenguas en las que está el contenido que tienen que evaluar. Esto hace que, a pesar de su número, se trate de una fuerza poco eficiente, lo que sumado a algunas normas contradictorias da como resultado que los moderadores se encuentren frustrados.
En el caso de Myanmar, el grupo extremista Ma Ba Tha tenía permitida la representación en la red social, pero no su líder. Por lo tanto, las páginas en apoyo al líder (llamado Wirathu) estaban prohibidas, mientras que cualquier otra página con el logo y los ideales de Ma Ba Tha estaban permitidas.
Los casos específicos varían en cada país. Por ejemplo, en Alemania, los moderadores tienen que fijarse especialmente (a petición del gobierno del país) en los grupos relacionados con la extrema derecha. En otros países, el uso de la palabra «yihad» (guerra santa) o «mártir» pueden variar según el contexto, y por tanto, estar sujetos o no a la censura.