Meta se alía con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en los Estados Unidos, para desarrollar estrategias contra el abuso infantil.
Facebook e Instagram están dando algunos pasos más fuertes hasta el momento para atacar el abuso infantil en redes sociales (CSAM, por sus siglas en inglés) que está inundando sus redes sociales. Meta, la empresa matriz de ambas plataformas, está creando una base de datos en asociación con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) que permitirá a los usuarios enviar una «huella digital» de material de abuso infantil conocido, un código numérico relacionado con una imagen. o video en lugar del archivo en sí.
El código será almacenado e implementado por otras plataformas participantes para detectar signos de la misma imagen o video que se comparte en otros lugares en línea. Meta aseguró el lunes que se está asociando con el NCMEC para fundar “una nueva plataforma diseñada para evitar de manera proactiva que las imágenes íntimas de los jóvenes se difundan en línea”.
¿Cómo funciona esta iniciativa para atacar el abuso infantil en redes sociales?
La iniciativa, denominada Take It Down, busca atacar el abuso infantil en redes sociales utilizando valores hash de imágenes CSAM para detectar y eliminar copias que potencialmente se comparten en plataformas de redes sociales, ya sea de Meta o de otros lugares. Facebook e Instagram ya eliminan las imágenes pornográficas de venganza de esta manera, y la iniciativa abre el sistema a otras empresas que deseen hacer lo mismo con sus aplicaciones. Participan sitios orientados a la pornografía y videos como Pornhub y Onlyfans, al igual que la red social francesa Yubo.
La función hash funciona esencialmente como una «huella digital» de números únicos asignados a cada imagen o vídeo. Los usuarios menores de edad que deseen que se elimine una imagen de sí mismos desnudos o parcialmente desnudos de las plataformas pueden enviar el archivo a Take It Down, que luego almacenará el hash asociado con el archivo en una base de datos.
Los miembros participantes, como Facebook e Instagram, pueden luego tomar esa base de datos de hash y escanearla contra imágenes y videos en sus plataformas. Se supone que ni las personas que trabajan para Take It Down ni para Meta deben ver la imagen o el video en cuestión, ya que la posesión de pornografía infantil es un delito.
“La gente puede ir a TakeItDown.NCMEC.org y seguir las instrucciones para enviar un caso que buscará proactivamente sus imágenes íntimas en las aplicaciones participantes”, se lee en el comunicado de prensa de Meta.
Aumenta el contenido de abuso infantil en redes sociales
Take it Down se basa en la plataforma StopNCII 2021 de Meta, que se asoció con ONG para usar la técnica de hashing para detectar y eliminar imágenes íntimas compartidas sin consentimiento. Take It Down se enfoca directamente en imágenes desnudas y parcialmente desnudas de usuarios menores de edad. Los padres u otros «adultos de confianza» también pueden presentar reclamaciones en nombre de los usuarios jóvenes para atacar el abuso infantil en redes sociales.
La asociación de Meta con el NCMEC se produce cuando las plataformas de redes sociales luchan por reprimir un aumento en el material de abuso infantil detectado en línea. Un informe anual publicado el año pasado por Internet Watch Foundation descubrió 252.194 URL que contenían o promocionaban material conocido de MASI.
Eso es un 64% más que en el mismo período del año anterior. Esas cifras son particularmente alarmantes en los EE. UU. El año pasado, según MIT Technology Review, representaron un asombroso 30 % de los enlaces de MASI detectados a nivel mundial.
La gran mayoría de los enlaces CSAM informados por las empresas de redes sociales de EE. UU. se realizaron en las aplicaciones familiares de Meta. Los datos publicados el año pasado por el NCMEC muestran que solo Facebook representó 22 millones de informes de abuso sexual infantil.