Facebook, condenado a indemnizar a más de 11.000 moderadores de contenido

Facebook modo silencioso

Los moderadores de contenidos de Facebook se ven sometidos a un gran estrés mental, ya que por delante de sus ojos pasan contenidos violentos, material pedófilo, imágenes de alto contenido sexual y hasta accidentes mortales. Su trabajo consiste en visualizar, constantemente durante su jornada laboral, todo el contenido que el algoritmo de Facebook considera que infringe las normas de la red y valorar en cuestión de segundos si las incumple o no.

Tras dos años de juicio, Facebook deberá indemnizar a un grupo de moderadores con 52 millones de dólares por provocarles estrés postraumático

Se trata de un trabajo muy duro y que puede acarrear secuelas psicológicas graves y ahora Facebook ha sido condenado a pagar 52 millones de dólares, en indemnizaciones que van desde los 1.000 a los 50.000 dólares, a un total de 11.250 moderadores que denunciaron a la compañía ante la Corte Superior de San Mateo, California, en 2018.

El importe que recibirá cada ex empleado de Facebook dependerá de las secuelas que les haya provocado el trabajo por la escasa protección recibida por parte de la compañía. El proceso judicial se inició en cuando Selena Scola, una exmoderadora, demandó a la empresa por los problemas psicológicos causados en el desarrollo de sus funciones laborales, que la expusieron a contenidos «altamente tóxicos y extremadamente desagradables«.

Según Scola, entre los contenidos que tuvo que visualizar había violaciones, asesinatos, torturas, decapitaciones y abusos a menores y en su denuncia, Scola afirmaba que no había recibido formación o preparación por parte de la compañía para hacer frente a su trabajo. A la demanda inicial de Scola se fueron sumando más moderadores aquejados del mismo problema psicológico.

Ahora, este grupo de trabajadores de Facebook recibirá la indemnización impuesta por los tribunales de San Mateo, pero además, la sentencia establece que, además de la indemnización monetaria, la compañía debe crear un programa de ayuda para los moderadores, con el apoyo de expertos en salud mental, que ofrecerá asesoramiento y ayuda a los trabajadores.

A pesar de las continuas mejoras en la Inteligencia Artificial de Facebook para detectar y eliminar perfiles falsos y contenidos dañinos, Facebook aún depende en gran medida del trabajo de los moderadores de contenidos, responsables de visualizar todo aquello que los algoritmos detectan como potencialmente maligno.

Jaume Vicent

Redactor y especialista en SEO y marketing de contenidos. Friki de las redes sociales y de las nuevas tecnologías.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS

Responsable: TreceBits S.L. (TreceBits)
Finalidad: Que puedan comentar las noticias publicadas
Legitimación: Consentimiento del interesado. Satisfacción del interés legítimo del Responsable.
Destinatarios: No se cederán a terceros salvo obligación legal.
Derechos: Puedes ejercitar en cualquier momento tus derechos de acceso, rectificación, supresión, limitación, oposición y demás derechos legalmente establecidos a través del siguiente e-mail: [email protected].
Información adicional: Puedes consultar la información adicional y detallada sobre protección de datos aquí.