AI podría dejar de husmear prediciendo lo que dirás

Tabla de contenido:

AI podría dejar de husmear prediciendo lo que dirás
AI podría dejar de husmear prediciendo lo que dirás
Anonim

Conclusiones clave

  • Los investigadores han ideado un método para codificar las conversaciones y evitar que los micrófonos falsos capturen nuestras conversaciones.
  • El método es significativo ya que funciona en tiempo real en la transmisión de audio y con un entrenamiento mínimo.
  • Los expertos aplauden la investigación, pero creen que no es de mucha utilidad para el usuario promedio de teléfonos inteligentes.
Image
Image

Estamos rodeados de dispositivos inteligentes con micrófonos, pero ¿y si se han visto comprometidos para espiarnos?

En un esfuerzo por proteger nuestras conversaciones de los fisgones, los investigadores de la Universidad de Columbia han desarrollado un método de camuflaje de voz neuronal que interrumpe los sistemas automáticos de reconocimiento de voz en tiempo real sin molestar a las personas.

"Con la invasión de [dispositivos inteligentes activados por voz] en nuestras vidas, la idea de la privacidad comienza a evaporarse ya que estos dispositivos de escucha siempre están encendidos y monitorean lo que se dice", Charles Everette, Director de Defensa Cibernética, Deep Instinct, le dijo a Lifewire por correo electrónico. "Esta investigación es una respuesta directa a la necesidad de ocultar o camuflar la voz y las conversaciones de un individuo de estos espías electrónicos, conocidos o desconocidos en un área".

Conversando

Los investigadores han desarrollado un sistema que genera sonidos silenciosos que puedes reproducir en cualquier habitación para evitar que los micrófonos no autorizados espíen tus conversaciones.

La forma en que este tipo de tecnología contrarresta las escuchas le recuerda a Everette los auriculares con cancelación de ruido. En lugar de generar sonidos silenciosos para cancelar el ruido de fondo, los investigadores transmiten sonidos de fondo que interrumpen los algoritmos de inteligencia artificial (IA) que interpretan las ondas de sonido en un audio comprensible.

Estos mecanismos para camuflar la voz de una persona no son únicos, pero lo que distingue al Camuflaje de voz neuronal de los otros métodos es que funciona en tiempo real en la transmisión de audio.

"Para operar en el habla en vivo, nuestro enfoque debe predecir [el audio de codificación correcto] en el futuro para que puedan reproducirse en tiempo real", señalan los investigadores en su artículo. Actualmente, el método funciona para la mayoría del idioma inglés.

Hans Hansen, CEO de Brand3D, le dijo a Lifewire que la investigación es muy importante ya que ataca una gran debilidad en los sistemas de IA actuales.

En una conversación por correo electrónico, Hansen explicó que los sistemas actuales de IA de aprendizaje profundo en general y el reconocimiento natural del habla en particular funcionan después de procesar millones de registros de datos de voz recopilados de miles de hablantes. Por el contrario, Neural Voice Camouflage funciona después de condicionarse a solo dos segundos de entrada de voz.

Personalmente, si me preocupan los dispositivos de escucha, mi solución no sería agregar otro dispositivo de escucha que busque generar ruido de fondo.

¿Árbol equivocado?

Brian Chappell, estratega jefe de seguridad de BeyondTrust, cree que la investigación es más beneficiosa para los usuarios comerciales que temen estar en medio de dispositivos comprometidos que escuchan palabras clave que indican que se está hablando información valiosa.

"Donde esta tecnología sería potencialmente más interesante es en un estado de vigilancia más autoritario donde el análisis de huellas de voz y video de IA se utiliza contra los ciudadanos", dijo James Maude, investigador principal de seguridad cibernética de BeyondTrust, a Lifewire por correo electrónico.

Maude sugirió que una mejor alternativa sería implementar controles de privacidad sobre cómo estos dispositivos capturan, almacenan y utilizan los datos. Además, Chappell cree que la utilidad del método del investigador es limitada, ya que no está diseñado para detener las escuchas humanas.

"Para el hogar, tenga en cuenta que, al menos en teoría, el uso de una herramienta de este tipo hará que Siri, Alexa, Google Home y cualquier otro sistema que se active con una palabra desencadenante hablada lo ignoren", dijo Capilla.

Image
Image

Pero los expertos creen que con la creciente inclusión de tecnología específica de IA/ML en nuestros dispositivos inteligentes, es muy posible que esta tecnología termine dentro de nuestros teléfonos, en un futuro cercano.

Maude está preocupada porque las tecnologías de IA pueden aprender rápidamente a diferenciar entre ruido y audio real. Piensa que si bien el sistema podría tener éxito inicialmente, podría convertirse rápidamente en un juego del gato y el ratón a medida que un dispositivo de escucha aprenda a filtrar los ruidos de interferencia.

Más preocupante aún, Maude señaló que cualquiera que lo use podría, de hecho, llamar la atención sobre sí mismo, ya que interrumpir el reconocimiento de voz parecería inusual y podría indicar que está tratando de ocultar algo.

"Personalmente, si me preocupan los dispositivos de escucha, mi solución no sería agregar otro dispositivo de escucha que busque generar ruido de fondo", compartió Maude. "Especialmente porque solo aumenta el riesgo de que un dispositivo o aplicación sea pirateado y pueda escucharme".

Recomendado: