Polémica en YouTube por recomendar vídeos de niños que atraen a pedófilos
No hace falta entrar en la Deep Web para encontrar comentarios de dudosa moralidad dirigidos a niños. De hecho, basta con entrar en YouTube y eso suele traer controversia habitualmente. La polémica que ha surgido ahora se ha desatado alrededor de vídeos de niños realizando poses gimnastas, en bañador o haciendo «retos» consistente en comerse una piruleta.
En YouTube, miles de comentarios obscenos saturan vídeos protagonizados por menores a los que el algoritmo conduce con suma facilidad
Al parecer, los vídeos son recomendados por el algoritmo con bastante ligereza al buscar contenido de mujeres adultas probándose trajes de baño, lencería, etc. En estos vídeos, los comentarios son desoladores. Se pueden encontrar fácilmente usuarios comentando con emojis de indudable intención sexual o recalcando las marcas de tiempo de las posturas más comprometidas.
Ciertos usuarios han denunciado esta situación en redes sociales (especialmente en Reddit) acusando a YouTube de permitir un círculo pedófilo de «baja intensidad». Las miniaturas de los vídeos muestran a menores en ropa deportiva y otro tipo de situaciones que pueden atraer fácilmente a los depredadores de la red.
De hecho, si se busca «bikini haul», el primer resultado sugerido es «bikini haul 15 years old», que se podría traducir como «chica de 15 años probándose un bikini«. El algoritmo parece bastante permisivo con este tipo de vídeos, que si bien no son sexualmente explícitos, resulta fácil imaginar qué tipo de público pueden atraer, lo cual se confirma leyendo los comentarios.
Algunos de los vídeos a los que se pueden acceder navegando a través de las recomendaciones (desde una cuenta de YouTube con el historial limpio) tienen los vídeos desactivados, lo que puede sugerir que, o bien YouTube ha tomado cartas en el asunto, o que el usuario que ha subido el vídeo no quiere llamar en exceso la atención.
YouTube, por su parte, asegura que cualquier contenido (incluidos comentarios) que pongan en algún tipo de peligro a los menores, son perseguidos de manera agresiva, lo que incluye dar parte a las autoridades, eliminarlos de la plataforma y suspender cuentas. Por supuesto estos vídeos también pierden toda la monetización.
El problema, parece ser, es que es «fácil» engañar a los procesos de detección automática, lo que sumado a la gran cantidad de vídeos que se suben de manera diaria a la plataforma, hace difícil que se pueda controlar todo. Otro problema es que muchos de los vídeos son vídeos inocentes de niños haciendo cosas normales que son utilizados por pedófilos para recrearse, por lo cual se hace más difícil actuar sobre el vídeo en sí.
La moderación por IA debe mejorar para poder filtrar todos estos comentarios y poder echar un cable a los más de 10.000 moderadores de contenido que trabajan para YouTube.