La función está diseñada para escanear imágenes de iMessage entrantes y salientes en los dispositivos de los niños, para buscar desnudos y advertirles que tales fotos pueden ser dañinas
El gigante tecnológico habilitó en nuevos territorios fuera de los Estados Unidos, una función para hacer frente al envío de fotos ítimas no solicitadas a menores de edad. A pesar de que no es nueva, dado que se estrenó en diciembre pasado, ahora llega para los usuarios de la aplicación de mensajería instantánea en iOS ubicados en Reino Unido, Canadá, Nueva Zelanda y Autraliar.
Aún se desconoce el momento exacto en que llegará a estos territorios, pero el medio anglo The Guardian informa que la función llegará al Reino Unido «pronto». De igual forma se espera que en futuro cercano llegue a otros territorios.
¿Cómo funciona?
Se trata de un escaneo que ocurre en el dispositivo, no afecta el cifrado de extremo a extremo de los mensajes, además es necesario habilitar la función para su operatividad, dado que está integrada con el sistema Family Sharing existente de Apple.
La función escanea las imágenes entrantes y salientes en busca de material «sexualmente explícito» para proteger a los niños. Si la encuentra, la imagen se vuelve borrosa y se proporciona orientación para encontrar ayuda junto con garantías de que está bien no ver la imagen y abandonar la conversación.
“No está solo y siempre puede obtener ayuda de alguien en quien confíe o de profesionales capacitados”, dice el mensaje emergente. «También puedes bloquear a esta persona». Similar a su lanzamiento inicial en los EE. UU., los niños tendrán la opción de enviar mensajes a un adulto en el que confíen sobre una foto marcada.
Cuando Apple anunció originalmente la función en agosto pasado, sugirió que esta notificación se realizaría automáticamente. Los críticos se apresuraron a señalar que el enfoque original corría el riesgo de exponer a los niños homosexuales a sus padres y, de lo contrario, podría ser abusado.
LEE TAMBIÉN: ¿Has sido víctima de cyberflashing? Envío de fotos íntimas no autorizada se convierte en delito
Otras iniciativas por parte de Apple
Apple también está ampliando el lanzamiento de una nueva función para las búsquedas de Spotlight, Siri y Safari que orientará a los usuarios hacia recursos de seguridad si buscan temas relacionados con el abuso sexual infantil.
Junto con estas dos características de seguridad infantil, Apple anunció originalmente una tercera iniciativa en agosto pasado que involucraba escanear fotos en busca de material de abuso sexual infantil (CSAM) antes de que se carguen en la cuenta de iCloud de un usuario.
Sin embargo, esta característica provocó una intensa reacción de los defensores de la privacidad, quienes argumentaron que corría el riesgo de introducir una puerta trasera que socavaría la seguridad de los usuarios de Apple.
La compañía anunció más tarde que retrasaría el lanzamiento de las tres funciones mientras abordaba las preocupaciones. Después de haber lanzado las dos primeras funciones, Apple aún tiene que proporcionar una actualización sobre cuándo estará disponible la función de detección de CSAM más controvertida.