No confíes en nada de lo que ves en la web, dicen los expertos

Tabla de contenido:

No confíes en nada de lo que ves en la web, dicen los expertos
No confíes en nada de lo que ves en la web, dicen los expertos
Anonim

Conclusiones clave

  • Una nueva investigación revela que las personas no pueden separar las imágenes generadas por IA de las reales.
  • Los participantes calificaron las imágenes generadas por IA como más confiables.
  • Los expertos creen que las personas deberían dejar de confiar en todo lo que ven en Internet.
Image
Image

El dicho "ver para creer" ya no es relevante cuando se trata de Internet, y los expertos dicen que no va a mejorar en el corto plazo.

Un estudio reciente descubrió que las imágenes de rostros generadas por inteligencia artificial (IA) no solo eran altamente fotorrealistas, sino que también parecían más virtuosas que los rostros reales.

"Nuestra evaluación del fotorrealismo de rostros sintetizados por IA indica que los motores de síntesis han atravesado el valle inquietante y son capaces de crear rostros que son indistinguibles y más confiables que los rostros reales", observaron los investigadores.

Esa persona no existe

Los investigadores, la Dra. Sophie Nightingale de la Universidad de Lancaster y el profesor Hany Farid de la Universidad de California, Berkeley, realizaron los experimentos después de reconocer las amenazas bien publicitadas de las falsificaciones profundas, que van desde todo tipo de fraude en línea hasta estimulantes campañas de desinformación.

"Quizás lo más pernicioso es la consecuencia de que, en un mundo digital en el que se puede falsificar cualquier imagen o video, se puede cuestionar la autenticidad de cualquier grabación inconveniente o no deseada", sostuvieron los investigadores.

Argumentaron que si bien ha habido progreso en el desarrollo de técnicas automáticas para detectar contenido ultrafalso, las técnicas actuales no son lo suficientemente eficientes y precisas para mantenerse al día con el flujo constante de contenido nuevo que se carga en línea. Esto significa que depende de los consumidores de contenido en línea distinguir lo real de lo falso, sugiere el dúo.

Jelle Wieringa, defensora de la concientización sobre seguridad en KnowBe4, estuvo de acuerdo. Le dijo a Lifewire por correo electrónico que combatir las falsificaciones profundas reales es extremadamente difícil de hacer sin tecnología especializada. "[Las tecnologías de mitigación] pueden ser costosas y difíciles de implementar en procesos en tiempo real, a menudo detectando un deepfake solo después del hecho".

Con esta suposición, los investigadores realizaron una serie de experimentos para determinar si los participantes humanos pueden distinguir los rostros sintetizados de última generación de los rostros reales. En sus pruebas, encontraron que, a pesar del entrenamiento para ayudar a reconocer las falsificaciones, la tasa de precisión solo mejoró al 59 %, frente al 48 % sin entrenamiento.

Esto llevó a los investigadores a probar si las percepciones de confiabilidad podrían ayudar a las personas a identificar imágenes artificiales. En un tercer estudio, pidieron a los participantes que calificaran la confiabilidad de las caras, solo para descubrir que la calificación promedio para las caras sintéticas era 7.7% más confiable que la calificación promedio para caras reales. Puede que el número no parezca mucho, pero los investigadores afirman que es estadísticamente significativo.

Falsos más profundos

Las falsificaciones profundas ya eran una gran preocupación, y ahora este estudio ha enturbiado aún más las aguas, lo que sugiere que las imágenes falsas de alta calidad podrían agregar una dimensión completamente nueva a las estafas en línea, por ejemplo, al ayudar a crear más Perfiles falsos en línea convincentes.

"Lo único que impulsa la ciberseguridad es la confianza que las personas tienen en las tecnologías, los procesos y las personas que intentan mantenerlos a salvo", compartió Wieringa. "Las falsificaciones profundas, especialmente cuando se vuelven fotorrealistas, socavan esta confianza y, por lo tanto, la adopción y aceptación de la ciberseguridad. Puede hacer que las personas desconfíen de todo lo que perciben".

Image
Image

Chris Hauk, defensor de la privacidad del consumidor en Pixel Privacy, estuvo de acuerdo. En un breve intercambio de correos electrónicos, le dijo a Lifewire que la falsificación profunda fotorrealista podría causar "estragos" en línea, especialmente en estos días en que se puede acceder a todo tipo de cuentas mediante la tecnología de identificación con foto.

Acción correctiva

Afortunadamente, Greg Kuhn, Director de IoT, Prosegur Security, dice que existen procesos que pueden evitar este tipo de autenticación fraudulenta. Le dijo a Lifewire por correo electrónico que los sistemas de acreditación basados en IA comparan a una persona verificada con una lista, pero muchos tienen medidas de seguridad integradas para verificar la "actividad".

"Estos tipos de sistemas pueden requerir y guiar a un usuario para que realice ciertas tareas, como sonreír o girar la cabeza hacia la izquierda y luego hacia la derecha. Estas son cosas que las caras generadas estáticamente no podrían realizar", compartió Kuhn.

Los investigadores han propuesto pautas para regular su creación y distribución para proteger al público de las imágenes sintéticas. Para empezar, sugieren incorporar marcas de agua profundamente arraigadas en las propias redes de síntesis de imágenes y videos para garantizar que todos los medios sintéticos puedan identificarse de manera confiable.

Hasta entonces, Paul Bischoff, defensor de la privacidad y editor de investigación de seguridad de la información en Comparitech, dice que las personas están solas."La gente tendrá que aprender a no confiar en las caras en línea, al igual que todos (con suerte) hemos aprendido a no confiar en los nombres que aparecen en nuestros correos electrónicos", dijo Bischoff a Lifewire por correo electrónico.

Recomendado: