Facebook reconoce que no controla que los usuarios tengan la edad mínima legal

Facebook logo ondas

Facebook vuelve a estar bajo el punto de mira después de la emisión de un reportaje en la televisión británica Channel 4, según recoge la BBC. En él se detallaba cómo el contenido gráfico que incumple las normas de la plataforma, en ocasiones, pasa desapercibido, o los moderadores deciden no eliminarlo, a pesar de todo. En concreto, sucede con los vídeos sobre abuso infantil.

Facebook reconoce errores a la hora de eliminar vídeos polémicos, como los que contienen abusos a niños

Además, el documental muestra la actitud más laxa del equipo humano de revisión de Facebook, que hace la vista gorda ante las publicaciones evidentes de usuarios que no tienen la edad mínima consentida para abrir una cuenta en la red social. Algunos de estos perfiles de niños, menores de 13 años, son reportados pero nunca eliminados, a menos que ellos mismos reconozcan que son menores de 13.

En el reportaje emitido se observa cómo una cámara oculta simula entrar a trabajar en una de las muchas sedes de detección de Facebook. Allí, los responsables comentan que no se puede censurar todo lo que sería conveniente eliminar porque si no «la gente pierde el interés en la plataforma».

Como ejemplo, los empleados toman un vídeo de una paliza a un niño en 2012 que nunca fue eliminado porque se considera únicamente «perturbador». Facebook alega que sí eliminó el vídeo pero que este ha sido reeditado y publicado en múltiples ocasiones.

Algunos de los centros de detección que Facebook tiene repartidos por el mundo son subcontratas, de modo que el compromiso de los empleados puede ser menor. Aunque Facebook no ha aclarado el número exacto de estos centros, el que aparece en el documental está en Dublín. Facebook ha abierto recientemente uno similar en Londres y tiene planes de hacerlo también en Barcelona.

Tras la emisión del documental, Facebook ha reconocido de forma oficial que se han cometido errores en la forma de trabajar revisando el contenido problemático, y desde la compañía adelantan que están investigando cómo ha podido suceder, cuánto material ha quedado impune y qué mecanismos implantar para evitar que ocurra nuevamente.

Además, el equipo implicado ha recibido otra vez el entrenamiento de los grupos que deben detectar el material no permitido en la plataforma. La compañía aumentará el número de moderadores, pasando de los 10.000 actuales a 20.000 a finales de este año.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.