Conclusiones clave
- Las empresas de software buscan en millones de fotos en línea disponibles públicamente para crear sistemas de reconocimiento facial.
- Un nuevo sitio web te ayuda a averiguar si tus fotos de Flickr se usaron para la investigación de IA.
- El uso de fotos en línea por parte de las grandes empresas tecnológicas es una invasión de la privacidad, dicen algunos expertos.
Las empresas de software están recopilando fotos privadas para crear sistemas de reconocimiento facial, y un nuevo sitio web puede ayudar a determinar si sus imágenes se encuentran entre ellas.
El sitio web, llamado exposing.ai, busca a través de bases de datos públicas para determinar si sus fotos de Flickr se usaron para la investigación de IA. Los desarrolladores de software a menudo usan imágenes disponibles públicamente para entrenar sus sistemas de reconocimiento. La práctica puede ser legal, pero algunos expertos creen que no es ética.
"El hecho de que estas fotos se utilicen sin el conocimiento de las personas es una violación importante de la privacidad", dijo Thierry Tremblay, director ejecutivo y fundador de la empresa de software de bases de datos Kohezion, en una entrevista por correo electrónico. "Esa es una preocupación particular para las minorías que podrían ser perfiladas y atacadas. Además, los usuarios no necesariamente dan su consentimiento para ser escaneados cada vez que salen en público".
Flickr puede revelar más de lo que crees
El sitio web exposing.ai funciona buscando si sus fotos se incluyeron en conjuntos de datos disponibles públicamente. Busca nombres de usuario e identificaciones con fotografía de Flickr. Todo lo que tiene que hacer es ingresar su nombre de usuario de Flickr, la URL de la foto o el hashtag en la barra de búsqueda del sitio.
El sitio se lanzó el mes pasado y se basa en años de investigación sobre conjuntos de datos de imágenes públicas, escribieron los creadores de Exposing.ai en el sitio web. "Contar la compleja historia de cómo las fotografías de ayer se convirtieron en los datos de entrenamiento de hoy es parte del objetivo de este proyecto en curso", dijeron.
El sitio busca en millones de registros, pero "existen innumerables conjuntos de datos de entrenamiento de reconocimiento facial y se extraen continuamente de los sitios de medios sociales, noticias y entretenimiento", escribieron.
Las empresas están aspirando imágenes para potenciar sus proyectos de software. "Ciertamente, los gigantes tecnológicos como Google, Amazon, Facebook y Apple están metidos en la investigación y exploración de la tecnología de reconocimiento facial", dijo Nat Maple, director de marketing de la empresa de ciberseguridad BullGuard, en una entrevista por correo electrónico.
Una carrera armamentista por las fotos
El raspado de fotos es parte de una carrera armamentista entre las empresas para desarrollar un mejor reconocimiento facial. Por ejemplo, la empresa Clearview AI absorbió 3 mil millones de imágenes y llevó esto un paso más allá al crear una aplicación de IA, señaló Maple.
La aplicación actúa como un motor de búsqueda y permite que un usuario tome una foto de alguien, la suba y vea una lista de fotos públicas de esa persona y enlaces a su procedencia.
El hecho de que estas fotos se utilicen sin el conocimiento de las personas es una importante violación de la privacidad.
"Curiosamente, vemos la mayoría de las dudas sobre este software a nivel del gobierno/aplicación de la ley, debido a cuestiones legales y de elaboración de perfiles", dijo Laura Hoffner, gerente de crisis de la firma de consultoría de riesgos Concentric Advisors, en un entrevista por correo electrónico.
"Pero eso significa que la industria privada está superando al gobierno en experiencia y acceso".
Los usuarios que desean mantener privadas las fotos que ya han publicado en línea tienen opciones limitadas. "No hay mucho que puedas hacer aparte de tomar la opción nuclear, es decir, contratar a un abogado y demandar a la empresa en cuestión", dijo Maple. "Pero, por supuesto, tienes que ser dedicado y adinerado."
Protege tu rostro
Si desea evitar que las fotos que aún no ha publicado se utilicen para proyectos de investigación, existen herramientas de software que disfrazan las fotos haciendo cambios a nivel de píxel para confundir los sistemas de reconocimiento facial, dijo Maple.
Por ejemplo, investigadores de la Universidad de Chicago han desarrollado un software llamado Fawkes para reducir la precisión de los conjuntos de datos fotográficos que las herramientas de reconocimiento facial recopilan de la web.
Sin embargo, Microsoft recientemente realizó cambios en su plataforma de reconocimiento facial Azure "aparentemente diseñada para socavar la eficacia de la versión actual de Fawkes", dijo Maple.
La mejor manera de mantener la privacidad de sus fotos es asegurarse de que no entren en circulación en línea, dijo Sean O'Brien, investigador principal de ExpressVPN Digital Security Lab, en una entrevista por correo electrónico. Sugirió bloquear sus cuentas de redes sociales configurando su perfil como privado, o incluso eliminando las redes sociales por completo.
"Solo tenemos una cara y debemos tratarla con más precaución que una contraseña", dijo O'Brien. "Es fundamental que los consumidores responsabilicen a las empresas tecnológicas y a los gobiernos de implementar una política tecnológica que nos proteja y resuelva las deficiencias relacionadas con la privacidad del reconocimiento facial".