Denuncian a Facebook por no proteger de traumas a los moderadores de contenido

Un ex empleado de Facebook ha denunciado a la compañía en California. El motivo, según él, es que los moderadores de contenido que se enfrentan a algún tipo de trauma psicológico tras revisar imágenes duras en la red social, no reciben los cuidados adecuados por parte de la empresa.
El denunciante asegura que Facebook no se preocupa por los traumas mentales que provoca el trabajo en los revisores de contenido ofensivo
La denuncia es bastante explícita: «Los moderadores de contenidos de Facebook son bombardeados con miles de vídeos e imágenes de pornografía infantil. violaciones, tortura, zoofilia, decapitaciones, suicidios y asesinatos».
La abogada del antiguo empleado lo confirma: «Facebook ignora su deber de proveer un lugar seguro de trabajo, y en su lugar ha creado una puerta giratoria de trabajadores que se van de allí traumatizados de por vida».
Facebook ha comentado en varias ocasiones que todos los revisores de contenido han tenido acceso a todo tipo de recursos de salud mental, incluyendo profesionales entrenados en tratar con grupos e individuos. Además, la compañía ofrece a sus empleados un seguro médico completo.
Bertie Thomson, director de comunicación corporativa de la red social ha dicho al respecto: «Nos tomamos muy en serio el apoyo que ofrecemos a nuestros moderadores de contenido. Nos aseguramos que a cualquier persona que revisa el contenido de Facebook se le ofrezca apoyo psicológico».
Actualmente, más de 7.500 moderadores de contenido trabajan en Facebook. Muchos de ellos trabajan a tiempo completo. Facebook tiene un sistema de moderación de contenido, en el que un equipo humano decide si las imágenes o vídeos incumplen las normas de la red social, lo que implica que los trabajadores puedan ver cierto tipo de imágenes perturbadoras.
La lucha contra los contenidos ofensivos (como los discursos de odio) y la desinformación, ha llevado a Mark Zuckerberg, CEO de la empresa, a contratar más revisores de contenido y al empleo cada vez mayor de la inteligencia artificial para clasificar y eliminar los contenidos ofensivos.