Facebook ofrece explicaciones tras la matanza de Nueva Zelanda

Tras la matanza de 50 personas en Christchurch, en Nueva Zelanda, que fue retransmitida en directo a través de las redes sociales, todos los ojos miran ahora a las compañías que permiten este tipo de emisiones y en la necesidad de controlar su contenido.
Facebook ha eliminado más de 1,5 millones de vídeos relacionados con la matanza
Facebook ha ofrecido explicaciones al respecto y señala que está trabajando contrarreloj para prevenir que este tipo de contenidos vuelvan a poder aparecer en la plataforma. Además, está colaborando con la policía de Nueva Zelanda en la investigación de lo ocurrido.
La compañía señala que eliminó el vídeo del atacante minutos después de tener constancia de que se había producido, aunque esto tuvo lugar después de que ya finalizase la emisión.
Según los datos que ha hecho públicos la compañía, el vídeo fue visualizado menos de 200 veces durante la emisión en directo y ninguna de las personas que lo vieron dio la voz de alarma ni lo denunció.
La primera denuncia llegó 12 minutos después de que el vídeo acabase (29 desde que se iniciara la retransmisión). Hasta que se eliminó el vídeo pudo verse unas 4.000 veces, contando las 200 producidas durante la emisión en directo.
Uno de los motivos por los que el vídeo se difundió, según Facebook, a gran velocidad, es que un usuario de la plataforma de intercambios de archivos 8chan publicó el enlace al vídeo antes de que la red social lo eliminase. Esto hizo que vitalizase el contenido.
Facebook ha señalado que eliminó rápidamente los perfiles tanto de la red social como de Instagram del sospechoso, así como las cuentas de personas que han tratado de suplantar su identidad desde que ocurrieron los asesinatos.
Sin embargo, no es fácil eliminar -según la compañía- todas las variantes del vídeo que se han ido publicando en la plataforma. En las primeras 24 horas desde el acto terrorista, Facebook eliminó más de 1,5 millones de vídeos relacionados con el ataque en todo el mundo.
Más de 1,2 millones de vídeos fueron bloqueados incluso antes de ser publicados en la red social, por lo que nadie pudo verlos, según ha declarado la compañía, que además ha compartido la información audiovisual con bases de datos internacionales para que contenidos similares puedan ser detectados con rapidez y borrados.
De todas maneras, queda en entredicho la capacidad de las plataformas audiovisuales para frenar la emisión de este tipo de contenidos en directo… así como la voluntad de quienes comparten y suben variaciones de estos contenidos, generalmente no con sanas intenciones…