Facebook elimina la opción de traducir las publicaciones al birmano

Facebook-colecciones

La polémica persigue a Facebook y esta vez la compañía ha decidido actuar lo más rápidamente posible. Una investigación realizada por la agencia de noticias Reuters puso de manifiesto que la compañía estaba fallando en sus esfuerzos por combatir las oleadas de violencia generadas en Birmania. Además, el traductor birmano-inglés daba errores y permitía que publicaciones en las que se hablaba de acabar con los Rohingya se tradujeran al inglés como frases inofensivas.

Facebook ha eliminado cuentas relacionadas con cargos militares del país que hacían apología de la limpieza étnica

Los musulmanes de la comunidad Rohingya están perseguidos en el país, y en el último año y medio han emigrado más de 700.000 personas por este motivo. Las Naciones Unidas han señalado a Facebook como altavoz para el incremento de la violencia y el discurso de odio contra el colectivo.

De este modo, Facebook ha eliminado y bloqueado recientemente 18 cuentas y 52 páginas de cargos militares o asociados con ellos que hacían apología de la violencia a los Rohingya. Por otro lado, la compañía ha decidido suspender el servicio del traductor hasta que consigan solucionar los fallos que han permitido la proliferación de mensajes de odio.

Con la frase «mata a todos los kalars que veas en Myanmar, ninguno de ellos debe quedar vivo», Facebook traducía «no debería ver un arcoiris en Myanmar». Kalar es una palabra despectiva usada para señalar a la comunidad Rohingya. Según la compañía, el algoritmo tiene problemas para interpretar correctamente algunos dialectos de birmano.

Según Reuters, se encontraron más de 1.000 ejemplos de publicaciones mal traducidas que continuaban circulando por la plataforma, y violando explícitamente sus políticas de uso. En abril, Facebook trató de publicar estas al dialecto más usado en Myanmar, provocando fallos de traducción que hacían perder todo el sentido a la iniciativa.

Facebook ha reconocido que ha actuado de forma «demasiado lenta» para prevenir y frenar el discurso de odio y la viralización de los bulos. Según la compañía, está investigando cómo emplear recursos con Inteligencia Artificial para adelantarse a una violencia que ya parece fuera de control.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar la solicitud que realizas en este formulario de contacto.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de SiteGround Spain S.L. (proveedor de hosting de TreceBits). SiteGround Spain S.L. está ubicado en la UE, cuyo nivel de protección son adecuados según Comisión de la UE. Ver política de privacidad de SiteGround Spain S.L.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.com así como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.