'Demasiado lento' para prevenir el discurso de odio que condujo a la violencia en Myanmar Facebook

1781
Byron Crawford

La violencia étnica en Myanmar es terrible y fue "demasiado lenta" para evitar la propagación de información errónea y discursos de odio en su plataforma, reconoció Facebook el jueves..

La admisión se produjo después de que una investigación de Reuters el miércoles reveló que Facebook ha tenido problemas para abordar las publicaciones de odio sobre la minoría rohingya, el gigante de las redes sociales dijo que la tasa a la que se informa sobre contenido inadecuado en birmano, ya sea discursos de odio o desinformación, es baja..

"Esto se debe a desafíos con nuestras herramientas de informes, problemas técnicos con la visualización de fuentes y falta de familiaridad con nuestras políticas. Estamos invirtiendo fuertemente en Inteligencia Artificial que puede marcar de manera proactiva publicaciones que rompan nuestras reglas.,"Sara Su, Product Manager de Facebook, dijo en un comunicado.

Según Facebook, en el segundo trimestre de 2018, identificó de manera proactiva alrededor del 52 por ciento del contenido que eliminó por incitación al odio en Myanmar..

"Esto representa un aumento del 13 por ciento en el último trimestre de 2017 y es el resultado de las inversiones que hemos realizado tanto en tecnología de detección como en personas, cuya combinación ayuda a encontrar contenido y cuentas potencialmente infractores y marcarlos para su revisión.,"Dijo Facebook.

Facebook dijo que identificó de manera proactiva publicaciones tan recientemente como la semana pasada que indicaban una amenaza de violencia creíble en Myanmar..

"Eliminamos las publicaciones y las señalamos a los grupos de la sociedad civil para asegurarnos de que estuvieran al tanto de la posible violencia.,"Decía la publicación del blog.

En mayo, una coalición de activistas de ocho países, incluidos India y Myanmar, pidió a Facebook que implementara un enfoque transparente y coherente de la moderación..

La coalición exigió auditorías de derechos civiles y prejuicios políticos sobre el papel de Facebook en la complicidad de los abusos de derechos humanos, la difusión de información errónea y la manipulación de los procesos democráticos en sus respectivos países..

Además de India y Myanmar, los otros países representados por los activistas fueron Bangladesh, Sri Lanka, Vietnam, Filipinas, Siria y Etiopía..

Facebook dijo que, a partir de junio, tenía más de 60 expertos en idiomas de Myanmar revisando el contenido y tendrá al menos 100 para fines de este año..

“Pero no es suficiente agregar más revisores porque no podemos confiar únicamente en los informes para detectar contenido inadecuado. Los ingenieros de toda la empresa están creando herramientas de inteligencia artificial que nos ayudan a identificar publicaciones abusivas ”, dijo el gigante de las redes sociales..

No solo Myanmar, los activistas en Sri Lanka han argumentado que la falta de moderadores locales, específicamente moderadores que dominen el idioma cingalés hablado por la mayoría budista del país, había permitido que el discurso de odio se extendiera en la plataforma..

Facebook dijo que está trabajando con una red de organizaciones independientes para identificar publicaciones de odio..

"Inicialmente, estamos enfocando nuestro trabajo en países donde las noticias falsas han tenido consecuencias de vida o muerte. Estos incluyen Sri Lanka, India, Camerún y la República Centroafricana, así como Myanmar.,”Dijo la empresa.


Nadie ha comentado sobre este artículo todavía.