TikTok ha limitado vídeos de personas feas o gordas
Un documento interno de TikTok que era distribuido entre sus moderadores solicitaba que no se promocionaran contenidos protagonizados por personas «con caras feas», «gordos» o grabados en «casas desordenadas» en la sección «Para tí» ( «For You») de la aplicación, donde se recomienda contenido a los usuarios en función de, supuestamente, sus gustos e historial de uso de la aplicación.
TikTok vuelve a sufrir acusaciones de no promocionar determinados contenidos deliberadamente
Sin embargo, como ya denunciaran un grupo de usuarios de TikTok hace unas semanas, las normas por las que se guía la red social de vídeos, muy popular entre los usuarios más jóvenes, son más que cuestionables. Según el documento interno, al que ha tenido acceso The Intercept, las personas con formas «raras» de cuerpo o «muchas arrugas» tenían menos posibilidades de ver sus contenidos promocionados que otras que tuvieran mayor atractivo visual.
Un responsable de TikTok ha reconocido la existencia de ese documento, aunque señala que ya se encuentra en desuso y que no corresponde a Estados Unidos. Al parecer, habría sido empleado hace meses en «otra ubicación geográfica» por parte de la compañía para evitar situaciones de bullying, según ha señalado. Sin embargo, en el documento filtrado se explica claramente que si lo que se ve en la imagen no es «atractivo visualmente» no se debe recomendar a los usuarios porque les va a resultar poco interesante y no van a terminar enganchándose a los contenidos de la aplicación.
Lo cierto es que no es la primera vez que TikTok se enfrenta a este tipo de acusaciones de sesgar el contenido que recomienda a los usuarios. Por ejemplo, se le ha criticado que en algunos territorios ha censurado intencionadamente contenidos LGTBQ, aunque la respuesta de la compañía ha sido siempre la misma: «eran guías de uso caducas que se emplearon hace meses, pero la aplicación ha cambiado mucho desde entonces. En China también se le ha acusado de restringir contenidos relacionados con revueltas en el país, sobre las protestas en la plaza de Tiananmen, o cualquier referencia sobre el Tibet o Taiwan.
Conocer cómo funciona el algoritmo de Instagram es poco menos que imposible, pues la compañía no ofrece, como otras redes sociales, explicaciones claras al respecto. A los usuarios no les queda otra que tratar de descifrar algunas teorías, como la que defiende que TikTok se guía por una curiosa política de bloques. Se desconoce si esta es realmente empleada, pero lo que sí se sabe es que la app tiene sus propios moderadores humanos, a los que alecciona dependiendo del país en el que se encuentren a la hora de seleccionar qué contenidos se muestran y cuáles no. ¿Los intereses que hay detrás? No se saben a ciencia cierta.
ACTUALIZACIÓN: TikTok nos ha hecho llegar su postura oficial con respecto a la guía de uso interno:
“Las Normas de la Comunidad que se mencionan parecen ser en gran parte iguales o similares a las que The Guardian ya mostró el año pasado en un reportaje y que fueron eliminadas antes de que se publicara y también antes de que The Intercept dice que accedió al documento.
En el último año, hemos establecido centros de Trust and Safety en California, Dublín y Singapur, que supervisan el desarrollo y la ejecución de nuestras políticas de moderación y están encabezados por expertos de la industria con una amplia experiencia en estas áreas. Los equipos locales aplican las Normas de la Comunidad actualizadas que ya publicamos en enero y que están encaminadas a mantener TikTok como un lugar de autoexpresión abierto y un entorno seguro tanto para los usuarios como para los creadores.
La mayoría de las normas que se presentan en The Intercept ya no se utilizan, o en algunos casos parecen no haber estado nunca en vigor, pero es correcto que para la transmisión en directo, TikTok se mantiene especialmente alerta para mantener el contenido sexual fuera de la plataforma.”