Apple buscará automáticamente fotos de pornografía infantil en los iPhone
Y avisará a las autoridades y a los tutores legales en caso de haber encontrado alguna actividad ilegal en los dispositivos de los menores.
Apple comenzará este año a buscar de forma automática fotos de abusos sexuales a menores que se suban a iCloud, el servicio de almacenamiento en la nube de la compañía.
La nueva herramienta de seguridad, que llegará con las versiones de iOS 15, se conocerá como neuralHash, e incluirá varias salvaguardas para proteger la privacidad de los usuarios, aunque algunos investigadores y expertos en seguridad se han mostrado preocupados por las implicaciones que podría tener su implantación.
En un primer momento, la comprobación sólo se realizará en las cuentas de usuarios de EE.UU. El sistema, completamente automatizado, no tendrá acceso directo al contenido de las imágenes que los usuarios suban a iCloud, pero sí a una “huella digital” (hash) de las mismas.
Esta huella, que es básicamente una cadena de caracteres, se calcula en base a la información presente en la imagen y posteriormente se compara con una base de datos de más de 200.000 huellas de imágenes preseleccionadas por el Centro Nacional de Niños Perdidos o Explotados (NCMEC), la agencia estadounidense que se encarga de frenar la distribución de imágenes sexuales explícitas de menores en la red.
El sistema diseñado por Apple es lo suficientemente avanzado para detectar también similitudes en imágenes que hayan sido ligeramente modificadas (por ejemplo, recortadas). La detección tendrá lugar en el propio teléfono del usuario antes de subir la imagen al servicio iCloud. Si se detecta una foto que puede coincidir con las que NCMEC ha recopilado y marcado como imagen con contenido sexual explícito con menores, se genera un registro asociado a la cuenta del usuario.
Si una cuenta de usuario supera un umbral de registros (que Apple no ha especificado), la compañía comprobará de forma manual el contenido de las imágenes en iCloud y alertará al NCMEC y las autoridades si descubre finalmente contenido sexual explicito protagonizado por menores.
“El umbral está establecido para proporcionar un nivel extremadamente alto de precisión y la posibilidad de marcar incorrectamente una cuenta determinada es de una entre mil millones”, explican desde la compañía.
UNA HERRAMIENTA CONTROVERTIDA
Este tipo de sistemas automatizados de detección de imágenes de contenido sexual explícito con menores son comunes en los sistemas de almacenamiento en la nube, como Google Drive o Dropbox. Apple también realiza estas comprobaciones en los archivos almacenados en sus servidores, pero su implantación en el propio iPhone abre un precedente que algunos investigadores y expertos en seguridad consideran preocupante.
Se trata, a fin de cuentas, de un sistema que analiza automáticamente las imágenes del usuario, aunque no lo haga de forma directa, y muchos tienen activado por defecto la subida de imágenes a iCloud por lo que afecta a todas las fotos almacenadas en el carrete.
“Quien controle la lista de huellas puede buscar cualquier contenido que desee en tu teléfono, y realmente no tienes ninguna manera de saber qué hay en esa lista porque es invisible para ti“, explica Matthew Green, profesor de seguridad y cifrado en la Universidad Johns Hopkins.
El miedo de Green y otros expertos en seguridad es que, en un futuro, un gobierno pueda decidir usar esta herramienta ya implementada para buscar, por ejemplo, imágenes de una pancarta en una protesta u otro tipo de contenido que ponga en peligro a los ciudadanos, sobre todo en países con regímenes autoritarios.
Varios investigadores han demostrado también que hay formas de engañar a los algoritmos que crean estas huellas únicas de cada imagen, algo que podría ser utilizado para generar falsos positivos con fotos aparentemente inocentes y dar así a las fuerzas de seguridad una excusa para acceder a la información presente en un teléfono.
En los últimos años, varias agencias de seguridad y gobiernos han pedido a Apple que creen puertas traseras que les permitan acceder a mensajes e imágenes envidas o almacenadas en los teléfonos para ayudar en las investigaciones de abusos a menores o terrorismo.
Apple, hasta el momento, se ha negado. Su argumento es que una puerta trasera podría ser utilizada también por gobiernos autoritarios para vulnerar los derechos de las personas y que, una vez creada, este tipo de puertas podría caer también en manos de ciberdelincuentes.
NeuralHash es en cierta forma una solución de compromiso que permite detectar imágenes explícitas de abusos a menores sin que haya una puerta trasera que rebaje la seguridad o nivel general de privacidad de la plataforma.
AVISO A LOS PADRES
Además de esta herramienta, Apple incluirá en iOS15 nuevos sistemas de protección en las cuentas de menores de edad para frenar el intercambio de fotos sexualmente explícitas.
Si un usuario menor de edad recibe una foto con contenido sexual, ésta aparecerá difuminada en la pantalla y se advertirá al niño o la niña de que la foto tiene un contenido que puede ser nocivo.
Si aún así decide verla podrá hacerlo pero se enviará un aviso a los padres. Varias pantallas de confirmación explicarán por qué el envío de este tipo de imágenes puede ser perjudicial y qué se considera una imagen sexualmente explícita (imágenes que muestren partes del cuerpo que normalmente se cubren con un bañador).
Hay protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. Se advertirá al niño antes de que se envíe la foto, y los padres recibirán un mensaje si el niño decide enviarla.
El sistema de detección utiliza técnicas de aprendizaje máquina en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita. La función está diseñada para que Apple no tenga acceso a los mensajes (toda la comprobación se realiza en el propio dispositivo) y sólo funcionará con la aplicación de Mensajes de la propia Apple.