Bodyguard, la app que protege del contenido tóxico en redes sociales

Bodyguard app para eliminar comentarios negativos

Cuando un usuario acumula varios miles de seguidores en redes sociales, lo más habitual es que se vea expuesto a comentarios desagradables, insultos y seguidores tóxicos que se dedican a dejar comentarios negativos en las publicaciones, los llamados trolls.

Bodyguard permite a los usuarios bloquear los comentarios negativos y tóxicos para mantener la tranquilidad en redes sociales.

Aunque, por desgracia, este tipo de discurso del odio es cada vez más habitual en redes sociales, la startup francesa Bodyguard ha creado una aplicación que es capaz de detectar los comentarios y contenidos maliciosos y bloquearlos para que no lleguen al usuario, protegiéndole de personas tóxicas en las redes sociales. La aplicación lleva varios años funcionando en Francia, enfocada al contenido en francés, y ahora se ha lanzado también para el mercado angloparlante.

Bodyguard cuenta con más de 50.000 usuarios en Francia, y gracias a su tecnología de Inteligencia Artificial que es capaz de detectar comentarios negativos y abusivos con una precisión de entre el 90 y el 95%, con solo un 2% de falsos positivos. La app se conecta con Twitter, YouTube, Instagram y Twitch, pero no tiene API para TikTok ni Snapchat por el momento.

La app tiene un mecanismos sencillo: se descarga la aplicación, se conecta con las diferentes redes sociales y se escoge un nivel de moderación. En este sentido, la aplicación ofrece varias categorías de moderación como: insultos, «body shaming» (avergonzar a los usuarios a causa de su cuerpo), bullying, acoso sexual, racismo y homofóbia, y en cada una de estas categorías el usuario puede configurar el nivel de moderación entre alto, medio y bajo.

Aplicación de BodyGuard

Una vez configurada la moderación, el usuario ya no necesita volver a acceder a la aplicación, a menos que necesite cambiar alguno de los niveles de moderación. La app funciona en segundo plano, escaneando los comentarios y publicaciones de las redes sociales para decidir si es contenido tóxico o no. Al encontrar contenidos negativos puede bloquear al usuario, silenciarlos o simplemente esconder el comentario. De esta forma, cuando el usuario abre de nuevo la aplicación, es como si el contenido negativo ya no existiera.

Al contrario que otras aplicaciones de moderación de comentarios, Bodyguard no funciona mediante machine learning. En su lugar, utiliza varios algoritmos que analizan el contenido de un comentario dentro de su contexto, con lo que es capaz de determinar si es ofensivo o no.

Jaume Vicent

Redactor y especialista en SEO y marketing de contenidos. Friki de las redes sociales y de las nuevas tecnologías.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
    • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar la solicitud que realizas en este formulario de contacto.
    • Legitimación: Consentimiento del interesado.
    • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de SiteGround Spain S.L. (proveedor de hosting de TreceBits). SiteGround Spain S.L. está ubicado en la UE, cuyo nivel de protección son adecuados según Comisión de la UE. Ver política de privacidad de SiteGround Spain S.L.
    • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.com así como el derecho a presentar una reclamación ante una autoridad de control.
    • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.