Facebook elimina la opción de traducir las publicaciones al birmano

Facebook-colecciones

La polémica persigue a Facebook y esta vez la compañía ha decidido actuar lo más rápidamente posible. Una investigación realizada por la agencia de noticias Reuters puso de manifiesto que la compañía estaba fallando en sus esfuerzos por combatir las oleadas de violencia generadas en Birmania. Además, el traductor birmano-inglés daba errores y permitía que publicaciones en las que se hablaba de acabar con los Rohingya se tradujeran al inglés como frases inofensivas.

Facebook ha eliminado cuentas relacionadas con cargos militares del país que hacían apología de la limpieza étnica

Los musulmanes de la comunidad Rohingya están perseguidos en el país, y en el último año y medio han emigrado más de 700.000 personas por este motivo. Las Naciones Unidas han señalado a Facebook como altavoz para el incremento de la violencia y el discurso de odio contra el colectivo.

De este modo, Facebook ha eliminado y bloqueado recientemente 18 cuentas y 52 páginas de cargos militares o asociados con ellos que hacían apología de la violencia a los Rohingya. Por otro lado, la compañía ha decidido suspender el servicio del traductor hasta que consigan solucionar los fallos que han permitido la proliferación de mensajes de odio.

Con la frase «mata a todos los kalars que veas en Myanmar, ninguno de ellos debe quedar vivo», Facebook traducía «no debería ver un arcoiris en Myanmar». Kalar es una palabra despectiva usada para señalar a la comunidad Rohingya. Según la compañía, el algoritmo tiene problemas para interpretar correctamente algunos dialectos de birmano.

Según Reuters, se encontraron más de 1.000 ejemplos de publicaciones mal traducidas que continuaban circulando por la plataforma, y violando explícitamente sus políticas de uso. En abril, Facebook trató de publicar estas al dialecto más usado en Myanmar, provocando fallos de traducción que hacían perder todo el sentido a la iniciativa.

Facebook ha reconocido que ha actuado de forma «demasiado lenta» para prevenir y frenar el discurso de odio y la viralización de los bulos. Según la compañía, está investigando cómo emplear recursos con Inteligencia Artificial para adelantarse a una violencia que ya parece fuera de control.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.