Facebook podría erradicar la violencia de sus vídeos en directo… con una controvertida herramienta
Desde Facebook saben que tienen un problema llamando a su puerta: la violencia en los vídeos en directo, así como el acoso y en ocasiones hasta los actos criminales, que no pueden formar parte de la oferta de contenidos en la red social. Hace poco se anunciaron 3.000 nuevos empleos para combatir el abuso en Facebook, pero, ¿es todo lo que la compañía puede hacer?
La inteligencia artificial podría evitar que un vídeo con contenido abusivo se hiciera viral
Se tardaron 24 horas en poder eliminar el vídeo en streaming que mostraba a un hombre matando a su propia hija, el pasado 24 de abril, antes de suicidarse. Muchas son las críticas que la empresa tuvo que aguantar a raíz de este y varios casos más de violencia explícita y muertes. Con cerca de dos mil millones de usuarios, lo cierto es que Facebook tiene difícil controlar de forma manual la viralización de este tipo de sucesos.
La solución podría estar en el uso de la inteligencia artificial, pues con ciertos algoritmos que controlaran expresiones faciales, palabras clave o movimientos sospechosos, la alerta saltaría antes. Como contención, si la inteligencia artificial pudiera detectar algo sospechoso, se podría evitar que el vídeo corriera como la pólvora hasta que los empleados de la compañía decidieran si es inofensivo o merece una actuación rápida.
Pero no estamos hablando de ciencia ficción; esta herramienta se utiliza de forma habitual a la hora de reconocer accidentes de tráfico y monitorizar atascos. ¿Por qué no usarla en la red social?
El peligro de que la inteligencia artificial controle los vídeos en directo en Facebook es que muchos sean censurados antes incluso de que se puedan emitir libremente. La censura y el control que Facebook impone sobre las publicaciones que se hacen en la red social serían temas de discusión recurrentes.
¿Estaríais dispuestos como usuarios a que Facebook monitorizara las retransmisiones y pudiera pararlas si su sistema de inteligencia artificial detectara algo extraño?