La medida complace a los grupos de protección de los niños, pero preocupa a algunos especialistas en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para vigilar a sus ciudadanos.

Apple reveló sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida.

La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada neuralMatch, escaneará las imágenes antes de que sean subidas a iCloud.

El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro.

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografía infantil.

Eso podría engañar al algoritmo de Apple y alertar a las autoridades. Los expertos son capaces de hacerlo con bastante facilidad, dijo.

Otros abusos de la herramienta podrían incluir el espionaje gubernamental a disidentes o manifestantes. ¿Qué pasa cuando el gobierno chino dice: `Aquí hay una lista de archivos que queremos que escanees'?, preguntó Green. ¿Apple dice que no? Espero que diga que no, pero su tecnología no dirá que no.

Compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo huellas digitales de imágenes previamente identificadas de abusos sexuales a menores.

Apple las ha utilizado para escanear los archivos que los usuarios almacenan en su servicio iCloud, que no está tan encriptado como los datos de sus dispositivos, en busca de pornografía infantil. La empresa ha estado bajo presión gubernamental para que permita una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad le exige a Apple un acto de equilibrismo entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.

Pero la Electronic Frontier Foundation, pionera de las libertades civiles en la red, calificó la medida de Apple en cuanto a las protecciones de la privacidad como un impactante cambio de rumbo para los usuarios que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad. Por su parte, el informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por agencias policiales para identificar la pornografía infantil en internet, reconoció la posibilidad de que se dé un mal uso al sistema de Apple, pero dijo que queda superado con creces por el imperativo de luchar contra los abusos sexuales a menores.

¿Es posible? Por supuesto. Pero ¿es algo que me preocupa? No, dijo Hany Farid, un investigador de la Universidad de California campus Berkeley que sostiene que un buen número de otros programas diseñados para proteger los dispositivos de diversas amenazas no han visto este tipo de misiones. Por ejemplo, WhatsApp ofrece a los usuarios un cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar el malware y advertir a los usuarios de que no hagan clic en enlaces maliciosos.

Apple fue una de las primeras empresas en adoptar el cifrado de extremo a extremo, en el que los mensajes se codifican para que sólo puedan leerlos sus remitentes y destinatarios. Pero las autoridades llevan tiempo presionando para que se les permita acceder a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.

Según Apple, los últimos cambios se implementarán este año como parte de las actualizaciones de su software operativo para los iPhones, Macs y Apple Watches.

Apple dijo que ninguna de las dos funciones comprometería la seguridad de las comunicaciones privadas ni notificaría a la policía.

 

 

0 Comentarios