Conclusiones clave
- La nueva política de Apple contra el material de abuso sexual infantil ha causado controversia entre usuarios y expertos en privacidad.
- La tecnología funciona escaneando imágenes en iCloud para CSAM y usando aprendizaje automático para identificar fotos explícitas en Mensajes.
- Los expertos dicen que no importa cuán privada diga Apple que es su tecnología de escaneo, en última instancia, aún permite que se abra una puerta trasera donde cualquier cosa podría pasar.
Apple introdujo recientemente una nueva tecnología para detectar material de abuso sexual infantil (CSAM), pero está recibiendo más críticas que elogios de la comunidad de privacidad.
Aunque Apple ha sido aclamada anteriormente como una de las únicas grandes empresas tecnológicas que realmente se preocupan por la privacidad del usuario, la nueva tecnología de escaneo CSAM presentada la semana pasada está poniendo una gran llave en eso. Los expertos dicen que aunque Apple promete la privacidad del usuario, la tecnología finalmente pondrá en riesgo a todos los usuarios de Apple.
"Apple está dando un paso hacia una pendiente muy resbaladiza; ha desarrollado una herramienta que está en riesgo de puertas traseras del gobierno y mal uso por parte de malos actores", dijo Farah Sattar, fundadora e investigadora de seguridad de DCRYPTD. a Lifewire en una entrevista por correo electrónico.
El plan de Apple no es privado
La nueva tecnología funciona de dos maneras: primero, al escanear una imagen antes de que se respalde en iCloud; si una imagen coincide con los criterios de CSAM, Apple recibe los datos del cupón criptográfico. La otra parte utiliza el aprendizaje automático en el dispositivo para identificar y difuminar imágenes sexualmente explícitas que los niños reciben a través de Mensajes.
Apple está descendiendo por una pendiente muy resbaladiza; han desarrollado una herramienta que está en riesgo de puertas traseras del gobierno y mal uso por parte de malos actores.
Los expertos están preocupados por la función Mensajes, ya que acabaría con el cifrado de extremo a extremo (E2EE) que Apple ha defendido.
"La introducción de Apple del escaneo del lado del cliente es una invasión de la privacidad, ya que esto rompe efectivamente E2EE", dijo Sattar.
"El propósito de E2EE es hacer que un mensaje sea ilegible para cualquier parte, excepto el remitente y el destinatario, pero el escaneo del lado del cliente permitirá que terceros accedan al contenido en caso de coincidencia. Esto sienta el precedente de que su los datos son E2EE… hasta que no lo son".
Si bien Apple dijo en una página de preguntas frecuentes publicada recientemente que aborda las preocupaciones de las personas sobre su nueva política de que no cambiará las garantías de privacidad de los Mensajes y no tendrá acceso a las comunicaciones, las organizaciones aún desconfían de las promesas de Apple.
"Dado que la detección de una 'imagen sexualmente explícita' utilizará el aprendizaje automático en el dispositivo para escanear el contenido de los mensajes, Apple ya no podrá llamar honestamente a iMessage "cifrado de extremo a extremo". escribió Electronic Frontier Foundation (EFF) en respuesta a la política de Apple.
"Apple y sus defensores pueden argumentar que escanear antes o después de cifrar o descifrar un mensaje mantiene intacta la promesa de 'extremo a extremo', pero eso sería una maniobra semántica para encubrir un cambio tectónico en la empresa. postura hacia el cifrado fuerte."
Posibilidad de uso indebido
La principal preocupación de muchos expertos es la existencia de una puerta trasera que, independientemente de lo que diga Apple, todavía está abierta a posibles usos indebidos.
Aunque esta política está destinada a ser aplicable solo a usuarios menores de 13 años, esta herramienta también es propicia para el uso indebido, ya que no hay garantía de que el usuario sea realmente menor de 13 años. Tal iniciativa representa un riesgo para los jóvenes LGBTQ+ y las personas en relaciones abusivas, ya que puede existir como una forma de stalkerware”, dijo Sattar.
EFF dijo que la más mínima presión externa (particularmente del gobierno) abriría la puerta al abuso y señaló casos en los que ya está ocurriendo. Por ejemplo, EFF dijo que las tecnologías creadas inicialmente para escanear y hash CSAM se han reutilizado para crear una base de datos de contenido "terrorista" a la que las empresas pueden contribuir y acceder para prohibir dicho contenido.
"Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de las banderas de configuración para escanear, no solo para niños, sino las cuentas de nadie ", dijo EFF.
Edward Snowden incluso condenó la nueva tecnología de Apple como un "problema de seguridad nacional" y "desastroso", y su organización, Freedom of the Press Foundation, es una de las muchas que han firmado una nueva carta en la que piden a Apple que ponga fin a esto. política incluso antes de que comience.
La carta ha sido firmada por más de 7400 organizaciones y expertos en seguridad y privacidad, pidiendo a Apple que detenga esta tecnología de inmediato y emita una declaración que reafirme el compromiso de la compañía con el cifrado de extremo a extremo y la privacidad del usuario.
"El camino actual de Apple amenaza con socavar décadas de trabajo de tecnólogos, académicos y defensores de políticas para que las medidas estrictas de preservación de la privacidad sean la norma en la mayoría de los dispositivos electrónicos de consumo y los casos de uso", se lee en la carta.
El tiempo dirá cómo Apple planea implementar esta tecnología a pesar de la gran controversia que la rodea, pero las afirmaciones de la empresa sobre la prioridad de la privacidad seguramente nunca serán las mismas.