Apple seguirá adelante con su función de detección de desnudos y protección infantil en la aplicación Mensajes para iOS 15.2, pero los padres tendrán que activarla.
Cuando Apple reveló por primera vez sus funciones de protección infantil, se encontraron con una respuesta bastante crítica, lo que resultó en un retraso del lanzamiento planificado. La mayor preocupación sobre la privacidad, Apple escanear fotos de iCloud en busca de material de abuso sexual infantil (CSAM, por sus siglas en inglés), aún está en espera, pero según Bloomberg, la actualización de Mensajes está programada para su lanzamiento con iOS 15.2. Sin embargo, Apple dice que no estará activado de forma predeterminada y que el análisis de imágenes se realizará en el dispositivo, por lo que no tendrá acceso a materiales potencialmente confidenciales.
Según Apple, una vez habilitada, la función usará el aprendizaje automático en el dispositivo para detectar si las fotos enviadas o recibidas en Mensajes contienen material explícito. Esto desenfocará las imágenes entrantes potencialmente explícitas y advertirá al niño o le dará una advertencia si está enviando algo que podría ser explícito.
En ambos casos, el niño también tendrá la opción de contactar a uno de sus padres y decirle lo que está pasando. En una lista de Preguntas frecuentes, Apple afirma que para las cuentas de niños menores de 12 años, se advertirá al niño que se contactará a un padre si ve/envía material explícito. Para las cuentas de niños entre 13 y 17 años, se advierte al niño sobre el riesgo potencial, pero no se contactará a los padres.
En las mismas preguntas frecuentes, Apple insiste en que ninguna parte de la información se compartirá con terceros, incluidos Apple, las fuerzas del orden público o el NCMEC (Centro Nacional para Niños Desaparecidos y Explotados).
Estas nuevas opciones de seguridad infantil para Mensajes deberían estar disponibles en la próxima actualización de iOS 15.2, que se espera que llegue en algún momento de este mes, según Macworld.