Google lanza una herramienta que detecta el abuso infantil en Internet gracias a la Inteligencia Artificial

Las compañías de Internet están cada vez más sensibilizadas con la idea de desterrar, del todo, el material de abuso sexual infantil en la red. Sin embargo, esta ardua tarea puede llevar años: se necesitan herramientas que trabajen a la par con equipos humanos que moderan y confirman lo que los algoritmos detectan.
Para agilizar el proceso de estos equipos que continuamente revisan contenido ilegal, Google ha lanzado un software gratuito que se sirve de la Inteligencia Artificial para actuar.
Hasta ahora se trabajaba con herramientas que detectaban este contenido en base a un catálogo configurado previamente
Muchas de las actuales soluciones que proponen las plataformas se basan en la detección de contenido en función de un catálogo previamente existente. Es un método interesante para evitar que los usuarios continúen compartiendo algo que ya está etiquetado como ilegal, pero no ayuda a eliminarlo completamente de Internet.
Microsoft, por ejemplo, desarrolló PhotoDNA en 2009, implantada por Twitter o Facebook. Las imágenes se identifican, primero, por el algoritmo, que las notifica a un organismo independiente que corrobora que incurren en abuso sexual. A partir de entonces las imágenes tienen un etiquetado numérico concreto que permite que las plataformas las eliminen con mayor rapidez, que no se confundan con otras incluso cuando se intentan editar, y se puedan reportar a las autoridades.
Según los experimentos de Google con su software, los moderadores humanos identifican en un 700% más de elementos en un mismo periodo de tiempo. Lo que hace la Inteligencia Artificial es encontrar similitudes entre el catálogo de imágenes ya clasificadas como de abuso infantil con las que están pendientes de revisar.
De momento, y aunque suponga una clara ayuda para los equipos encargados del tema, son solo las decisiones humanas las que permiten eliminar el material de abuso sexual infantil de Internet.