Ocho nuevas medidas de Facebook de cara a las elecciones de 2020

Facebook ha presentado un importante repertorio de nuevas medidas para luchar contra la desinformación, el avance de las noticias falsas y defender la libertad de expresión con la mirada puesta en las elecciones presidenciales que se celebrarán en Estados Unidos el próximo año.
Facebook teme que las elecciones presidenciales en Estados Unidos se conviertan en algo similar a lo ocurrido en 2016
La compañía ha anunciado estas novedades sin mencionar otros procesos electorales que tendrán lugar anteriormente como por ejemplo, las Elecciones Generales que tendrán lugar en España el próximo 10 de noviembre, para las que no ha explicado si estas medidas tendrán aplicación, aunque parece que no será así.
Facebook tiene la vista puesta en el proceso electoral estadounidense. Tras el discurso ofrecido la semana pasada por Mark Zuckerberg, CEO de la red social, en el que abogaba por la libertad de expresión y su decisión de no someter los anuncios políticos a procesos de comprobación excesivos, lo que ha sido considerado por algunos como «vía libre» para los discursos -y las estratagemas- de partidos políticos y simpatizantes, la red social lanza este ramillete de medias para tratar de contener una situación que, al menos en Estados Unidos, podría írsele de nuevo de las manos.
¿Cuáles son las medidas anunciadas por la compañía? Pasamos a enumerarlas:
-Mejora de los sistemas de detección. Facebook ha actualizado sus condiciones de uso para mostrar más claramente qué es lo que se considera comportamiento inapropiado señalando expresamente que éste puede ser llevado a cabo tanto por organizaciones estatales o extranjeras, en clara referencia a la interferencia de organizaciones de otras naciones como Rusia o Iran en los procesos electorales en Estados Unidos, algo que ya se demostró que ocurrió en 2016.
Además, Facebook ha señalado que, en colaboración con la Internet Research Agency (IRA) ha logrado mejorar los sistemas de detección de contenidos erróneos o tendenciosos, sea cual sea su intención política, para evitar que estos se difundan en la plataforma. Para ello, han analizado y cruzado contenidos compartidos tanto por defensores y detractores del ala izquierda como de la derecha, para establecer patrones de comportamiento con respecto a temas sensibles como racismo, medioambiente o apoyo LGTBI.
-Facebook Protect. Los administradores de Páginas pueden participar incluyendo sus perfiles de Facebook e Instagram, así como invitando a otros miembros de la organización a participar. Mediante este programa, los participantes han de activar obligatoriamente la doble autenticación de sus cuentas, lo que protege ante un posible intento de usurpar la identidad de las mismas. Las cuentas además serán monitorizadas por la compañía, que activará un protocolo de actuación en caso de cualquier comportamiento extraño que se detecte, como la conexión desde ubicaciones remotas o desde dispositivos no autorizados.
Si se descubre un ataque organizado contra un partido político o institución, será más fácil además que se activen protocolos de actuación para salvaguardar las cuentas de organizaciones similares que también pudieran estar siendo objeto de interferencias partidistas.
-Más información en las Páginas de Transparencia. Facebook dispone de una serie de herramientas que permiten a los usuarios saber quién está detrás de una determinada Página corporativa. Ahora en estas páginas se mostrará más información sobre las organizaciones o partidos políticos que gestionan una determinada Página, para que los usuarios comprendan por qué están compartiendo un tipo de contenido y no otro, al tener más contexto.
Hasta ahora sólo aparecía esta información en Páginas con un gran número de seguidores o que habían pasado por el proceso de verificación en la red social. A partir de enero de 2020 lo hará en todas las páginas de contenido político en Estados Unidos, y se obligará a los anunciantes a que posean una página certificada para poder adquirir publicidad. Si Facebook observa que se están compartiendo contenidos que pueden confundir a los usuarios, obligará a la Página a pasar por el proceso de verificación o será borrada.
-Identificar el contenido de medios controlados por el Estado. Facebook ha señalado que etiquetará las noticias que provengan de medios controlados por los gobiernos, para que los usuarios tengan más conocimiento sobre quién puede estar detrás de las informaciones. Para elaborar la lista de medios controlados por el Estado, Facebook ha contado con la ayuda de más de 40 expertos internacionales. Esta lista será actualizada periódicamente a partir de noviembre.
En 2020 Facebook extenderá las etiquetas para que también en Instagram se identifique claramente los contenidos que proceden de medios controlados por el Estado.
-Nuevas opciones para denunciar publicidad política. Facebook amplía las opciones que disponen los usuarios para reportar anuncios políticos, pudiendo ahora señalar si el contenido lo han visto en Facebook o en Instagram.
-Control del gasto y de los anuncios. Facebook permitirá conocer a los usuarios la cantidad total invertida por un candidato en publicidad. Asimismo, ha anunciado la construcción de una herramienta que permitirá a cualquiera descargar toda la librería de anuncios que haya adquirido una determinada formación o candidato.
-Etiquetas de información errónea más grandes. En lugar de eliminar la información que sea comprobada como falsa, Facebook la seguirá mostrando, pero su etiqueta de aviso será más prominente y aparecerá en la parte superior del contenido, o sobre las imágenes, vídeos o Stories que sean identificadas como falsas por sus controladores de contenido.
Además, aparecerá una pop up emergente cada vez que alguien trate de compartir ese contenido, avisándole de que se trata de un contenido erróneo.
-Se prohiben los banners que animan a los usuarios a no votar. Facebook no quiere contenidos que señalen que votar es inútil o no relevante, o que animen a los usuarios a no acudir ante las urnas.