Facebook permite etiquetar anuncios para «anti judíos» y otros grupos polémicos

Facebook genera, de forma automática, las etiquetas con las que un anunciante puede trabajar y dirigirse de forma más concreta a su audiencia. Normalmente tienen nombres como «millennial», «deportista», «activista»…, en base a la información que la red social destaca de cada uno de los perfiles de sus usuarios.
Sin embargo, la agencia ProPublica ha advertido que ciertos títulos son, cuando menos, polémicos: «anti judío» y «Hitler no hizo nada malo» son dos de ellos. El descubrimiento pone sobre la mesa el trabajo interno de Facebook por frenar el discurso de odio, pero también su intención de sacar rentabilidad de él.
Facebook ha eliminado las etiquetas y ha asegurado que trabajará para evitar la creación otras polémicas
Las etiquetas, más allá de su nombre, implican que Facebook genera beneficios a partir de ellas. Aunque ambos grupos no aglutinaban a muchos usuarios, la existencia de una etiqueta oficial hace que Facebook se sitúe en el ojo del huracán.
ProPublica, para demostrar la completa operatividad de las etiquetas, lanzó un anuncio falso en el que usaba algunas de ellas: cómo quemar judíos, historia de «por qué los judíos arruinan el mundo», NaziParty, etcétera.
Como los grupos de usuarios con semejantes intereses son demasiado pequeños para lanzar un anuncio, Facebook obligaba a escoger un par de intereses más. Como curiosidad, también relacionaba a estos usuarios con los interesados en la Segunda Enmienda a la Constitución de los Estados Unidos, que regula el uso de armas.
Los comentarios de Facebook a este respecto suenan ya familiares, siempre asegurando que el discurso de odio no tiene lugar en Facebook. Además, las etiquetas y los intereses ya han sido eliminados de la plataforma, y desde su blog oficial afirman que trabajarán en crear medidas que impidan la proliferación de estas actitudes en un futuro. Rob Leathern, director jefe de producto de Facebook, lo ha señalado así en su comunicado:
“We don’t allow hate speech on Facebook. Our community standards strictly prohibit attacking people based on their protected characteristics, including religion, and we prohibit advertisers from discriminating against people based on religion and other attributes. However, there are times where content is surfaced on our platform that violates our standards. In this case, we’ve removed the associated targeting fields in question. We know we have more work to do, so we’re also building new guardrails in our product and review processes to prevent other issues like this from happening in the future.”
«No permitimos ningún discurso de odio en Facebook. Nuestras normas comunitarias prohíben estrictamente atacar a las personas basándose en sus características, incluyendo religión, y prohibimos a los anunciantes discriminar en base a religiones y otros atributos. Sin embargo, hay momentos en los que el contenido que aparece en nuestra plataforma viola nuestros propios estándares. En este caso, hemos eliminado los campos asociados a las etiquetas en cuestión. Sabemos que tenemos mucho trabajo por hacer, por lo que estamos creando nuevas líneas de seguridad en nuestros productos, además de revisar los procesos que siguen, para prevenir que sucedan problemas como este en el futuro».
Lo cierto es que, en otros campos igual de sensibles, Facebook respalda a su algoritmo con un equipo humano que se asegura de que el contenido que no cumple las normas de la plataforma no tenga mucho recorrido, como los vídeos animando a hacer la Yihad o la pornografía.
Pero el error de dejar volar a un algoritmo no es solo de Facebook. Como señala el usuario Joshua Benton a través de Twitter, Google también permite realizar la compra de un anuncio en los mismos términos que Facebook, etiquetando también intereses polémicos.
Re: This story on FB allowing anti-Semitic ad targeting https://t.co/zR31joq02l I just tried & Google seems to let you target the same terms pic.twitter.com/HDIMZQTf7x
— Joshua Benton (@jbenton) 14 de septiembre de 2017
A pesar de las disculpas ofrecidas por Facebook queda saber, por ejemplo, por qué estas etiquetas ni siquiera estaban reconocidas como potencialmente conflictivas por el sistema de la red social.