De acuerdo con Internews, el medio de comunicación sin fines de lucro, la empresa de Zuckerberg no está cumpliendo con los objetivos autoimpuestos de “ayudar a mantener a los usuarios seguros”.
Algunos socios de confianza aseguran que Meta descuida su iniciativa de “ayudar a mantener a los usuarios seguros”. Esencialmente debido a sus escasos recursos para este fin, personal insuficiente y, como resultado, su propensa «fallas operativas».
Así lo hizo saber a través de un informe publicado por el medio de comunicación sin fines de lucro Internews. En este documento mencionan que el programa Trusted Partner de Meta consta de 465 grupos mundiales de la sociedad civil y de derechos humanos.
¿Meta no está ofreciendo la atención necesaria al contenido peligroso en redes sociales?
El objetivo de este programa es proporcionar un canal designado para alertar a Facebook e Instagram sobre contenido peligroso y dañino, como amenazas de muerte, cuentas pirateadas e incitación a la violencia. Incluso, Meta promete priorizar esos informes y escalar rápidamente.
Pero Internews afirma que algunas organizaciones participantes experimentan el mismo trato que los usuarios habituales: esperan meses para obtener respuestas a un informe, son ignorados y se sienten alienados por una comunicación deficiente e impersonal.
Según el informe, los tiempos de respuesta son erráticos y, en algunos casos, Meta no reacciona ni ofrece ninguna explicación. Eso supuestamente se aplica incluso a contenido muy sensible al tiempo, como amenazas graves y llamados a la violencia.
“Dos meses más. Y en nuestros correos electrónicos les decimos que la situación es urgente, la gente se está muriendo”, dijo un socio anónimo de confianza. “La situación política es muy delicada y debe abordarse con mucha urgencia. Y luego son meses sin una respuesta”.
¿Cuánto tiempo esperan para obtener respuesta las denuncias de contenido peligroso?
Para el informe, Internews recopiló evaluaciones de 23 socios confiables de todas las principales regiones del mundo y agregó sus propias observaciones como socio del programa.
La mayoría de las organizaciones reportaron experiencias similares, pero hubo una excepción: Ucrania, donde la capacidad de respuesta estuvo muy por encima del promedio. Los socios ucranianos pueden esperar una respuesta dentro de las 72 horas, mientras que en Etiopía, los informes relacionados con la guerra de Tigray pueden quedar sin respuesta durante varios meses.
Las conclusiones del informe encajan con filtraciones anteriores e informes sobre las prioridades globales de Meta. Los socios de confianza son especialmente importantes fuera de América del Norte y Europa, donde los usuarios no pueden confiar en que la IA y miles de metamoderadores humanos controlan constantemente el contenido.
Sin embargo, hace dos años, la exempleada de Facebook, Frances Haugen, publicó documentos internos que revelaron lo poco que a Meta le importa el sur global. En países como Etiopía, Siria, Sri Lanka, Marruecos y Myanmar, Facebook e Instagram no logran impedir que los extremistas inciten a la violencia. El supuesto fracaso de los socios de confianza puede ser parte de la razón.
Las consecuencias
En mayo de 2023, casi 50 grupos de responsabilidad tecnológica y de derechos humanos firmaron una carta abierta a Mark Zuckerberg y Nick Clegg después de que Meareg Amare, un profesor de Tigrayan, fuera engañado en un ataque racista en Facebook y asesinado poco después en Etiopía. Su hijo, Abrham, intentó en vano que Facebook eliminara las publicaciones.
“Al no invertir e implementar mejoras de seguridad adecuadas para su software o emplear suficientes moderadores de contenido, Meta está avivando las llamas del odio y contribuyendo a miles de muertes en Etiopía”, dice la carta.
“Los programas de indicadores confiables son vitales para la seguridad del usuario, pero los socios de Meta están profundamente frustrados con la forma en que se ejecutó el programa”, dijo Rafiq Copeland, asesor de responsabilidad de la plataforma en Internews y autor del informe. Copeland cree que se necesita más inversión para garantizar que las plataformas de Meta sean seguras para los usuarios. “La vida de las personas depende de ello”.
La revisión se creó originalmente como una colaboración con Meta. En 2022, la empresa retiró su participación. Meta afirma que «los problemas de informes de la pequeña muestra de socios de confianza que contribuyeron al informe no representan, en nuestra opinión, una imagen completa o precisa del programa». Internews dice que solicitó la asistencia de Meta para notificar a sus socios sobre la revisión, pero Meta se negó.
Meta no revela sus tiempos de respuesta promedio y objetivo ni la cantidad de empleados que trabajan en el programa a tiempo completo. Un portavoz se negó a comentar sobre el informe.