Cómo la IA puede ayudarnos a oír mejor

Tabla de contenido:

Cómo la IA puede ayudarnos a oír mejor
Cómo la IA puede ayudarnos a oír mejor
Anonim

Conclusiones clave

  • Una gama de nuevos audífonos anunciados en el Consumer Electronics Show de la semana pasada afirman mejorar los sonidos usando inteligencia artificial.
  • WIDEX MOMENT utiliza IA para saber cómo los usuarios prefieren escuchar su entorno y lo compara con millones de configuraciones almacenadas en la nube.
  • El Oticon More está entrenado en 12 millones de sonidos, por lo que procesa el habla en ruido más como el cerebro humano, afirma la compañía.
Image
Image

Los nuevos audífonos usan inteligencia artificial para producir sonidos más realistas, afirman los fabricantes.

WIDEX MOMENT, lanzado recientemente, utiliza IA para aprender cómo los usuarios prefieren escuchar su entorno y lo compara con millones de configuraciones almacenadas en la nube para ayudar a personalizar la experiencia auditiva. Es uno de un número creciente de dispositivos auditivos que utilizan nuevas tecnologías.

"WIDEX MOMENT con PureSound aborda uno de los grandes desafíos sin resolver para los usuarios de audífonos: no importa cuán bueno sea el sonido, aún suena artificial, como si estuviera escuchando una grabación de su voz en lugar de cómo sonaba. antes de que su audición se viera afectada", dijo Kerrie Coughlin, vicepresidenta de marketing de Widex, en una entrevista por correo electrónico.

"En otras palabras, independientemente de la capacidad tecnológica, los audífonos siempre han sonado como audífonos".

No podemos oírte

The MOMENT y otros audífonos de alta tecnología abordan un problema al que se enfrentan muchos estadounidenses. Aproximadamente una de cada tres personas en los EE. S. entre las edades de 65 y 74 años tienen pérdida auditiva, y casi la mitad de los mayores de 75 años tienen dificultad para oír, según el Instituto Nacional sobre la Sordera y Otros Trastornos de la Comunicación.

Los audífonos tradicionales pueden cambiar la vida, pero tienen sus límites. El sonido que escucha un usuario se altera porque cuando se procesa en el audífono, llega al tímpano un poco más tarde que el sonido que viaja directamente a través del oído. Cuando estas dos señales "fuera de sincronización" se mezclan, el resultado es un sonido artificial.

Para intentar evitar este problema, MOMENT utiliza una ruta de procesamiento paralelo para reducir la latencia. La empresa afirma que el audífono procesa el sonido 10 veces más rápido que otros dispositivos, lo que reduce la latencia de procesamiento a 0,5 milisegundos.

En otras palabras, independientemente de la capacidad tecnológica, los audífonos siempre han sonado como audífonos.

"Muchos audífonos producen una señal que no es familiar para el cerebro, lo que lo obliga a volver a aprender a escuchar", dijo Coughlin."Gran parte de esto se debe al retraso que se produce durante el procesamiento del sonido. WIDEX MOMENT con PureSound ofrece una señal más real con un retraso mínimo, por lo que su cerebro reconoce la señal y usted reconoce el sonido".

AI también aumenta el rendimiento del MOMENT, dijo Coughlin. El software analiza las preferencias del usuario y aprende cómo los usuarios prefieren escuchar su entorno mediante el análisis de la configuración. La IA también busca a través de millones de configuraciones de usuario almacenadas en la nube para ayudar a personalizar la experiencia auditiva.

Los fabricantes s altan a la IA

El MOMENT no es el único audífono que usa IA. La semana pasada en el Consumer Electronics Show, Oticon lanzó el audífono Oticon More con una red neuronal profunda (DNN) integrada. La red Oticon More está entrenada con 12 millones de sonidos, por lo que procesa el habla en ruido de forma más parecida al cerebro humano, afirma la empresa.

"El DNN en Oticon More ha aprendido de la forma en que aprende el cerebro, naturalmente con el tiempo", dijo Donald Schum, vicepresidente de audiología de Oticon, en un comunicado de prensa.

"Cada sonido que pasa a través del audífono se compara con los resultados descubiertos en la fase de aprendizaje. Esto permite que Oticon More proporcione una escena de sonido más natural, completa y equilibrada con precisión, lo que facilita que el cerebro funcionar de manera óptima."

También está el Orka One, un nuevo audífono anunciado en el CES de la semana pasada, que afirma usar IA para reducir el ruido de fondo. El ORKA One usa una red neuronal de IA en un chip en el estuche del audífono, dice la compañía.

Image
Image

La red identifica y reduce los sonidos de fondo que pueden distraer y también realzar las voces humanas. "Los audífonos con tecnología AI Denoise pueden distinguir el ruido de fondo y permitir a los usuarios escuchar claramente los sonidos de baja frecuencia", dice la compañía en su sitio web. "Por lo tanto, los usuarios tienen una mejor audición y puedes conversar sin esfuerzo con tu familia y amigos en áreas ruidosas".

La inteligencia artificial está cambiando rápidamente todo tipo de tecnologías, incluidos los dispositivos médicos. Si alguno de estos dispositivos mejora la experiencia de los usuarios, podría ser una gran ayuda para las personas con pérdida auditiva.

Recomendado: