Seleccionar página

Facebook continúa fallando en la detección del discurso de odio en anuncios

Fuser News

09/06/2022
La plataforma Facebook, perteneciente a la empresa matriz Meta volvió a fallar en la detección de discursos de odio en anuncios enviados por los grupos sin fines de lucro Global Witness y Foxglove.
Se trató de mensajes dirigidos a promover la violencia étnica en Etiopía a través de 12 anuncios basados en texto que pedían el asesinato de personas pertenecientes a cada uno de los tres principales grupos étnicos de Etiopía: los amharas, los oromos y los tigrayanos.

La plataforma Facebook, perteneciente a la empresa matriz Meta, volvió a fallar en la detección de discursos de odio en anuncios enviados por los grupos sin fines de lucro Global Witness y Foxglove.

Según Associated Press, se trató de mensajes dirigidos a promover la violencia étnica en Etiopía a través de 12 anuncios basados en texto que pedían el asesinato de personas pertenecientes a cada uno de los tres principales grupos étnicos de Etiopía: los amharas, los oromos y los tigrayanos.

Los sistemas de Facebook aprobaron la publicación de los anuncios, tal como lo hicieron con los anuncios de Myanmar en marzo, como detectó Global Witness.

No obstante, en esta segunda ocasión el grupo informó a Meta sobre las violaciones no detectadas, y una semana después de escuchar a Meta, Global Witness presentó dos anuncios más para su aprobación, nuevamente con un discurso de odio y escritos en amárico, el idioma más utilizado en Etiopía, los cuales también fueron aprobados.

En su defensa, Meta dijo haber “invertido mucho en medidas de seguridad en Etiopía, agregando más personal con experiencia local y desarrollando nuestra capacidad para capturar contenido incendiario y de odio en los idiomas más hablados, incluido el amárico”.

Declaraciones explícitas

Por su parte, Rosie Sharpe, activista de Global Witness, resaltó que para las pruebas se eligieron los peores casos posibles, “los que deberían ser los más fáciles de detectar para Facebook. No eran lenguaje codificado. No eran silbatos para perros. Eran declaraciones explícitas que decían que este tipo de personas no son humanos o que este tipo de personas deberían morir de hambre”.

Entretanto, la compañía propiedad de Mark Zuckenberg se ha negado constantemente a decir cuántos moderadores de contenido tiene en países en los que el inglés no es el idioma principal, que precisamente abarca naciones como Etiopía y Myanmar, donde el material publicado en las plataformas de la empresa se ha relacionado con la violencia en el mundo real.

No aprenden la lección

En noviembre del año pasado, Meta dijo que eliminó una publicación del primer ministro de Etiopía que instaba a los ciudadanos a levantarse y “enterrar” a las fuerzas rivales de Tigray que amenazaban la capital del país.

Pese a esto, el funcionario ha seguido publicando en la plataforma, donde tiene 4,1 millones de seguidores, mientras que Estados Unidos (EE.UU.) y otros han advertido a Etiopía sobre la “retórica deshumanizante” después de que el primer ministro describiera a las fuerzas de Tigray como “cáncer” y “mala hierba” en comentarios realizados en julio de 2021.

Para Rosa Curling, directora de la organización Foxglove, «cuando los anuncios que llaman al genocidio en Etiopía pasan repetidamente por la red de Facebook, incluso después de que Facebook marca el problema, solo hay una conclusión posible: no hay nadie en casa. Años después del genocidio de Myanmar, está claro que Facebook no ha aprendido la lección”.

Comparte este artículo

Síguenos en Google News

Sigue a Fuser en Google News

Quiero recibir las noticias