Directivos de YouTube hicieron la vista gorda a los contenido problemáticos durante años

youtube logo

YouTube, la principal plataforma de vídeo en el mundo, se ve sumida en la desinformación ante la creciente viralización de teorías conspirativas, contenido sexual y discursos de odio. La popularidad de esta clase de contenidos ha generado una gran preocupación acerca del daño que pueden estar causando a sus usuarios. Sin embargo, un reportaje de Bloomberg señala que los directivos de la empresa llevan años siendo conscientes de este ascenso sin hacer nada al respecto.

Si se prueba que YouTube tenía conocimiento de la existencia de vídeos problemáticos, la compañía podría enfrentar cargos legales

Desde antes de ser adquirido por Google, en 2006, YouTube ya tenia problemas para lidiar con el contenido dañino. En aquel entonces, comenzaron a proliferar una serie de vídeos que incitaban a la anorexia y los desordenes alimenticios. Ante esta problemática, la empresa declaró que dichos vídeos representaban una amenaza para la salud de sus usuarios y procedió a eliminarlos, quitarlos de las recomendaciones o ponerles una restricción de edad.

Sin embargo, esta dinámica no se ha repetido con el avance de los movimientos anti vacunas dentro de la plataforma. De hecho, Micah Schaffer, encargado de las políticas de la red social en 2006, declaró que esta clase de contenidos no hubiese pasado desapercibido por la directiva de la época. De acuerdo a las declaraciones de Schaffer, este cambio en las políticas se debe a la prioridad que se le ha dado al beneficio comercial por sobre la seguridad de los usuarios.

En este sentido, la adquisición por Google ha jugado un papel fundamental. Tras su fusión, la gigante tecnológica impulsó un plan para reestructurar el plan de negocios de YouTube y así lograr obtener el mayor beneficio posible. Sin embargo, no fue hasta 2012 que la empresa identificó el poder comercial de la viralidad de sus vídeos y decidió establecer como objetivo alcanzar mil millones de visualizaciones diarias. Es así como la empresa comenzó a trabajar en potenciar su algoritmo para cumplir la meta.

En 2016, tras diez años de la fusión con Google, YouTube alcanzó su objetivo. Sin embargo, la hazaña no hubiese podido ocurrir sin su algoritmo de inteligencia artificial que permite predecir las futuras decisiones de los usuarios. En palabras de Brittan Heller, representante del centro de investigaciones de Harvad para los derechos humanos, «Ellos no saben como funciona el algoritmo, pero saben que cuanto más escandaloso sea el contenido, más visualizaciones tendrá».

La visión de Heller parece ser respaldada por las declaraciones de Paul Covington, el coautor del algoritmo utilizado en YouTube en 2016. Cuando Covington fue cuestionado acerca del resultado del algoritmo, el ingeniero respondió: «Es una decisión del producto. Nos dicen que debemos incrementar cierta métrica y nosotros lo hacemos, así que en realidad no es algo que esté en nuestras manos»

Sin embargo, una vez alcanzada su meta, YouTube no descansó. La empresa decidió lanzar el proyecto «Boil the ocean» (Hierve el océano), que tenía la intención de volver a reescribir el modelo de trabajo de la red social. Dicho proyecto pretendía pagar a sus creadores de contenido por la cantidad de interacción que generaran con los usuarios, separándose del modelo publicitario habitual. La idea era recompensar a aquellos creadores cuyo contenido no era respaldado por las empresas publicitarias, pero el proyecto no contempló la inmensa interacción que recibían los creadores y canales que difundían desinformación.

Boil the ocean fue denegado por los directivos de Google y en 2017, YouTube llevó a cabo lo que muchos creadores llamaron como «la purga». Ese año, la plataforma cerró múltiples canales que producían y difundían contenido dañino a raíz de un escándalo mediático que llevó a la retirada de varios anunciantes. El escándalo giro en torno a una serie de vídeos perturbadores que estaban dirigidos al público infantil. Dichos vídeos aparentemente eran un secreto a puertas cerradas dentro de la empresa e incluso se sabía que uno de ellos se encontraba posicionado entre los 100 vídeos más vistos en el portal.

Además, a raíz de este escándalo, muchos usuarios solicitaron a YouTube que escogiera manualmente los vídeos que se dispondrían en su canal infantil YouTube Kids. Sin embargo, la plataforma hizo caso omiso a las peticiones de los usuarios y sometió el contenido del canal a su algoritmo. Esto suscitó nuevas polémicas como la ocurrida este año donde se encontró un vídeo que poseía instrucciones para suicidarse.

Para contrarrestar estas polémicas, a finales de 2017 la empresa contrató a un grupo de moderadores humanos que se encargaban de revisar el contenido online, pero la solución resultó poco efectiva. Los moderadores tardaban mucho tiempo en dar con el contenido problemático y, además, la plataforma tampoco poseía una política clara en el caso de teorías conspirativas y otra clase de contenidos dañinos.

A finales del año pasado YouTube declaró que había eliminado más de 8,8 millones de canales por violar sus políticas de contenido. Sin embargo, también es sabido que la empresa ha disuadido a su personal para que no sea tan proactivo en la búsqueda de contenido problemático. De hecho, un ejecutivo declaró que los abogados de la empresa sugirieron a los empleados que no trabajaban como moderadores que evitaran buscar por su cuenta los vídeos con contenido problemático.

En este sentido, si se prueba que YouTube tenía conocimiento de la existencia de vídeos problemáticos, la compañía podría enfrentar cargos legales. A pesar de que la ley estadounidense no responsabiliza a las grandes compañías tecnológicas del contenido publicado en sus portales, YouTube podría ser sancionado si se demuestra que la difusión de vídeos problemáticos es producto de negligencia y no de desconocimiento.

Los intentos de la red social parecen no ser lo suficientemente eficientes como para hacer frente a la amenaza de la desinformación en la plataforma y, sin embargo, Susan Wojcicki, directora ejecutiva de la empresa, ha defendido a YouTube apelando a la libertad de expresión.

Diana Cid

Periodista interesada en tecnología, cultura y verificación digital

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.