inoticia

Noticias De Actualidad
Facebook vuelve a fallar en la detección del discurso de odio en los anuncios

SAN FRANCISCO (AP) – La prueba no podía ser más fácil, y Facebook sigue fallando.

Facebook y su empresa matriz Meta volvieron a fracasar en una prueba de detección de discursos de odio obviamente violentos en los anuncios enviados a la plataforma por los grupos sin ánimo de lucro Global Witness y Foxglove.

Los mensajes de odio se centraron en Etiopía, donde los documentos internos obtenidos por la denunciante Frances Haugen mostraron que la ineficaz moderación de Facebook está “literalmente avivando la violencia étnica”, como dijo en su testimonio en el Congreso en 2021. En marzo, Global Witness realizó una prueba similar con el discurso de odio en Myanmar, que Facebook tampoco detectó.

El grupo creó 12 anuncios basados en texto que utilizaban un discurso de odio deshumanizado para pedir el asesinato de personas pertenecientes a cada uno de los tres principales grupos étnicos de Etiopía: los amhara, los oromo y los tigrayanos. Los sistemas de Facebook aprobaron la publicación de los anuncios, al igual que hicieron con los anuncios de Myanmar. Los anuncios no se publicaron realmente en Facebook.

Esta vez, sin embargo, el grupo informó a Meta de las infracciones no detectadas. La compañía dijo que los anuncios no deberían haber sido aprobados y señaló el trabajo que ha hecho para detectar el contenido de odio en sus plataformas.

Una semana después de recibir noticias de Meta, Global Witness presentó otros dos anuncios para su aprobación, de nuevo con un discurso de odio flagrante. Los dos anuncios, escritos en amárico, el idioma más utilizado en Etiopía, fueron aprobados.

Meta dijo que los anuncios no deberían haber sido aprobados.

“Hemos invertido mucho en medidas de seguridad en Etiopía, añadiendo más personal con experiencia local y aumentando nuestra capacidad para detectar contenido odioso e incendiario en los idiomas más hablados, incluido el amárico”, dijo la empresa en un comunicado enviado por correo electrónico, añadiendo que las máquinas y las personas pueden cometer errores. El comunicado era idéntico al que recibió Global Witness.

“Elegimos los peores casos que se nos ocurrieron”, dijo Rosie Sharpe, activista de Global Witness. “Los que deberían ser más fáciles de detectar para Facebook. No eran lenguaje codificado. No eran silbatos para perros. Eran declaraciones explícitas que decían que este tipo de personas no son humanos o que este tipo de personas deberían morir de hambre.”

Meta se ha negado sistemáticamente a decir cuántos moderadores de contenidos tiene en países donde el inglés no es la lengua principal. Esto incluye a los moderadores en Etiopía, Myanmar y otras regiones donde el material publicado en las plataformas de la empresa se ha relacionado con la violencia en el mundo real.

En noviembre, Meta dijo que había eliminado un post del primer ministro de Etiopía que instaba a los ciudadanos a levantarse y “enterrar” a las fuerzas rivales de Tigray que amenazaban la capital del país.

En el post, ya borrado, Abiy dijo que la “obligación de morir por Etiopía nos pertenece a todos”. Llamó a los ciudadanos a movilizarse “con cualquier arma o capacidad”.

Sin embargo, Abiy ha seguido publicando en la plataforma, donde tiene 4,1 millones de seguidores. Estados Unidos y otros países han advertido a Etiopía sobre la “retórica deshumanizadora” después de que el primer ministro describiera a las fuerzas de Tigray como “cáncer” y “malas hierbas” en unos comentarios realizados en julio de 2021.

“Cuando los anuncios que llaman al genocidio en Etiopía se cuelan repetidamente en la red de Facebook -incluso después de que el tema se marque con Facebook- solo hay una conclusión posible: no hay nadie en casa”, ha dicho Rosa Curling, directora de Foxglove, una organización legal sin ánimo de lucro con sede en Londres que se asoció con Global Witness en su investigación. “Años después del genocidio de Myanmar, está claro que Facebook no ha aprendido la lección”.