La tecnología Deepfake de Facebook no nos salvará, dicen los expertos

Tabla de contenido:

La tecnología Deepfake de Facebook no nos salvará, dicen los expertos
La tecnología Deepfake de Facebook no nos salvará, dicen los expertos
Anonim

Conclusiones clave

  • A medida que los deepfakes se vuelven más fáciles de hacer, las formas nuevas y mejoradas de detectarlos se han convertido en una prioridad.
  • La tecnología de detección de falsificación profunda de Facebook utiliza el aprendizaje automático inverso para descubrir si un video es falso o no.
  • Los expertos dicen que usar la tecnología blockchain sería la mejor manera de ver si un video es real o no, ya que el método se basa en datos contextuales.
Image
Image

Facebook confía en su modelo de aprendizaje automático para combatir las falsificaciones profundas, pero los expertos dicen que el aprendizaje automático por sí solo no nos salvará de ser engañados por las falsificaciones profundas.

Empresas como Facebook, Microsoft y Google están trabajando para evitar que las falsificaciones profundas se propaguen por la web y las redes sociales. Si bien los métodos difieren, existe un posible método infalible para detectar estos videos falsos: blockchains.

“[Blockchains] simplemente le brinda mucho potencial para validar el deepfake de una manera que es la mejor forma de validación que puedo ver”, Stephen Wolfram, fundador y director ejecutivo de Wolfram Research y autor de A New Kind of Ciencia, le dijo a Lifewire por teléfono.

Tecnología de detección de falsificaciones profundas de Facebook

La tecnología Deepfake ha crecido rápidamente en los últimos años. Los videos engañosos usan métodos de aprendizaje automático para hacer cosas como superponer la cara de alguien en el cuerpo de otra persona, alterar las condiciones de fondo, sincronizar los labios falsos y más. Van desde parodias inofensivas hasta hacer que celebridades o figuras públicas digan o hagan algo que no dijeron.

Los expertos dicen que la tecnología avanza rápidamente y que las falsificaciones profundas solo serán más convincentes (y más fáciles de crear) a medida que la tecnología esté más disponible y sea más innovadora.

Image
Image

Facebook recientemente dio más información sobre su tecnología de detección de falsificación profunda en asociación con la Universidad Estatal de Michigan. La red social dice que se basa en la ingeniería inversa desde una única imagen generada por inteligencia artificial hasta el modelo generativo utilizado para producirla.

Los científicos investigadores que trabajaron con Facebook dijeron que el método se basa en descubrir los patrones únicos detrás del modelo de IA utilizado para generar una falsificación profunda.

“Al generalizar la atribución de imágenes al reconocimiento de conjunto abierto, podemos inferir más información sobre el modelo generativo utilizado para crear un deepfake que va más allá del reconocimiento de que no se ha visto antes. Y al rastrear las similitudes entre los patrones de una colección de deepfakes, también podríamos saber si una serie de imágenes se originó a partir de una sola fuente”, escribieron los científicos investigadores Xi Yin y Tan Hassner en la publicación del blog de Facebook sobre su método de detección de deepfakes.

Image
Image

Wolfram dice que tiene sentido que utilices el aprendizaje automático para detectar un modelo avanzado de IA (un deepfake). Sin embargo, siempre hay lugar para engañar a la tecnología.

“No me sorprende en absoluto que haya una forma de aprendizaje automático decente para [detectar deepfakes]”, dijo Wolfram. “La única pregunta es si pones suficiente esfuerzo, ¿puedes engañarlo? Estoy seguro de que puedes.”

Combatir las falsificaciones profundas de una manera diferente

En cambio, Wolfram dijo que cree que usar blockchain sería la mejor opción para detectar con precisión ciertos tipos de deepfakes. Su opinión sobre el uso de blockchain en lugar del aprendizaje automático se remonta a 2019 y dijo que, en última instancia, el enfoque de blockchain puede brindar una solución más precisa a nuestro problema de deepfake.

“Espero que los espectadores de imágenes y videos puedan verificar rutinariamente las cadenas de bloques (y los 'cálculos de triangulación de datos') un poco como los navegadores web ahora verifican los certificados de seguridad”, escribió Wolfram en un artículo publicado en Scientific American.

Dado que las cadenas de bloques almacenan datos en bloques que luego se encadenan en orden cronológico, y dado que las cadenas de bloques descentralizadas son inmutables, los datos ingresados son irreversibles.

La única pregunta es si te esfuerzas lo suficiente, ¿puedes engañarlo? Estoy seguro de que puedes.

Wolfram explicó que al colocar un video en una cadena de bloques, podría ver la hora en que se tomó, la ubicación y otra información contextual que le permitiría saber si se modificó de alguna manera.

“En general, al tener más metadatos que contextualicen la imagen o el video, es más probable que puedas saberlo”, dijo. "No se puede falsificar el tiempo en una cadena de bloques".

Sin embargo, Wolfram dijo que el método utilizado, ya sea aprendizaje automático o blockchain, depende del tipo de falsificación profunda contra la que intenta protegerse (es decir, un video de Kim Kardashian diciendo algo tonto o un video de un político haciendo una declaración o sugerencia).

“El enfoque de cadena de bloques protege contra ciertos tipos de falsificaciones profundas, al igual que el procesamiento de imágenes de aprendizaje automático protege contra ciertos tipos de falsificaciones profundas”, dijo.

El resultado final, al parecer, es la vigilancia para todos nosotros cuando se trata de combatir el diluvio de deepfake que se avecina.

Recomendado: