Facebook, condenado a indemnizar a más de 11.000 moderadores de contenido

Facebook modo silencioso

Los moderadores de contenidos de Facebook se ven sometidos a un gran estrés mental, ya que por delante de sus ojos pasan contenidos violentos, material pedófilo, imágenes de alto contenido sexual y hasta accidentes mortales. Su trabajo consiste en visualizar, constantemente durante su jornada laboral, todo el contenido que el algoritmo de Facebook considera que infringe las normas de la red y valorar en cuestión de segundos si las incumple o no.

Tras dos años de juicio, Facebook deberá indemnizar a un grupo de moderadores con 52 millones de dólares por provocarles estrés postraumático

Se trata de un trabajo muy duro y que puede acarrear secuelas psicológicas graves y ahora Facebook ha sido condenado a pagar 52 millones de dólares, en indemnizaciones que van desde los 1.000 a los 50.000 dólares, a un total de 11.250 moderadores que denunciaron a la compañía ante la Corte Superior de San Mateo, California, en 2018.

El importe que recibirá cada ex empleado de Facebook dependerá de las secuelas que les haya provocado el trabajo por la escasa protección recibida por parte de la compañía. El proceso judicial se inició en cuando Selena Scola, una exmoderadora, demandó a la empresa por los problemas psicológicos causados en el desarrollo de sus funciones laborales, que la expusieron a contenidos «altamente tóxicos y extremadamente desagradables«.

Según Scola, entre los contenidos que tuvo que visualizar había violaciones, asesinatos, torturas, decapitaciones y abusos a menores y en su denuncia, Scola afirmaba que no había recibido formación o preparación por parte de la compañía para hacer frente a su trabajo. A la demanda inicial de Scola se fueron sumando más moderadores aquejados del mismo problema psicológico.

Ahora, este grupo de trabajadores de Facebook recibirá la indemnización impuesta por los tribunales de San Mateo, pero además, la sentencia establece que, además de la indemnización monetaria, la compañía debe crear un programa de ayuda para los moderadores, con el apoyo de expertos en salud mental, que ofrecerá asesoramiento y ayuda a los trabajadores.

A pesar de las continuas mejoras en la Inteligencia Artificial de Facebook para detectar y eliminar perfiles falsos y contenidos dañinos, Facebook aún depende en gran medida del trabajo de los moderadores de contenidos, responsables de visualizar todo aquello que los algoritmos detectan como potencialmente maligno.

Jaume Vicent

Redactor y especialista en SEO y marketing de contenidos. Friki de las redes sociales y de las nuevas tecnologías.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada.

    • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
    • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar la solicitud que realizas en este formulario de contacto.
    • Legitimación: Consentimiento del interesado.
    • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de SiteGround Spain S.L. (proveedor de hosting de TreceBits). SiteGround Spain S.L. está ubicado en la UE, cuyo nivel de protección son adecuados según Comisión de la UE. Ver política de privacidad de SiteGround Spain S.L.
    • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en [email protected] así como el derecho a presentar una reclamación ante una autoridad de control.
    • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.