La traducción en vivo puede señalar el futuro de las gafas de Apple

Tabla de contenido:

La traducción en vivo puede señalar el futuro de las gafas de Apple
La traducción en vivo puede señalar el futuro de las gafas de Apple
Anonim

Conclusiones clave

  • Las nuevas funciones de accesibilidad incluyen subtítulos en vivo generados en tiempo real, para cualquier video o conversación.
  • Si esta característica no está hecha para los anteojos AR de Apple, nos comeremos nuestro sombrero de emoji virtual.
  • Apple tiene un historial de probar funciones de productos futuros dentro de los dispositivos actuales.
Image
Image

Los nuevos subtítulos en vivo de Apple agregan subtítulos en tiempo real a cualquier cosa, incluida la persona que está frente a ti.

Al igual que el concepto AR Glasses de Google, anunciado esta semana. Live Captions de Apple puede tomar el audio entrante y transcribirlo al instante. La diferencia es que la versión de Apple se enviará "más adelante este año", lo que probablemente significa que estará en el lanzamiento de iOS 16 de este otoño. Pero la verdadera noticia aquí es que esta es la puñalada más obvia de Apple hasta ahora para probar las funciones futuras de Apple Glasses a simple vista.

"Como alguien que tiene dos padres que tienen problemas de audición, esto puede ser de gran ayuda", escribe el periodista centrado en Apple Dan Moren en su blog personal Six Colors. "Tengo curiosidad por ver qué tan bien funciona realmente la función y cómo maneja una gran llamada FaceTime con muchos participantes; Apple dice que atribuirá el diálogo a oradores específicos".

Juego de manos

Live Captions, a la que llegaremos en un segundo, está lejos de ser la primera función de gafas AR que Apple ha probado. La más obvia es la inclusión de cámaras LIDAR en iPhones y iPads. Estos escáneres ayudan a crear un mapa 3D preciso del mundo exterior y permiten que el iPhone superponga modelos 3D en el mundo real que se muestra a través de la cámara.

No estoy seguro de que podamos confiar en la traducción en vivo de Apple mejor que en las nuevas gafas AR de Google, pero creo que podemos confiar en que la competencia ayudará a generar los mejores resultados.

Hasta ahora, esta tecnología se ha utilizado para permitirle obtener una vista previa de las nuevas computadoras Apple en su propio escritorio, jugar juegos AR Lego, probar muebles IKEA en su sala de estar, etc. El hardware LIDAR es tan absurdamente redundante en los iPhone que solo debe estar allí para que Apple pueda perfeccionar el hardware y el software para una aplicación AR real: Apple Glasses.

Tampoco se trata solo de AR visual. Los AirPods han estado agregando funciones de realidad aumentada ordenadas durante años. El último, Spatial Audio, engaña a nuestro cerebro para que piense que los sonidos provienen de todo lo que nos rodea y es una excelente manera de ver películas o escuchar paisajes sonoros relajantes. Es una gran característica, pero será aún mejor cuando funcione con el esperado futuro producto de gafas de Apple. Ser capaz de colocar sonidos en un espacio 3D para que coincida con los objetos AR realmente venderá la ilusión.

¿O qué tal Live Text, la tecnología iOS 15 que reconoce y lee texto en fotos, y en vivo, a través de la cámara del iPhone? Esa es otra característica que es ideal para leer letreros, menús y otros textos a través de lentes AR.

Subtítulos en vivo

Live Captions toma el habla de una llamada FaceTime, aplicaciones de videoconferencia, transmisión de video, etc. Su teléfono toma el audio y lo transcribe sobre la marcha, proporcionando subtítulos, como se ve en este video.

Es genial, pero lo que es aún mejor es que nunca nada sale de tu iPhone. Los subtítulos, dice Apple, se generan en el dispositivo en lugar de enviarse a un servidor. Esto no solo es más privado, también es mucho más rápido.

"No estoy seguro de que podamos confiar en la traducción en vivo de Apple mejor que en las nuevas gafas AR de Google, pero creo que podemos confiar en que la competencia ayudará a generar los mejores resultados", dijo a Lifewire Kristen Bolig, fundadora de SecurityNerd. vía correo electrónico."Ahora que la competencia es pública y los problemas con este tipo de tecnología (privacidad, precisión, etc.) son bien conocidos, ambas compañías no solo estarán en una carrera para crear primero el mejor producto, sino también para crear el producto que mejor resuelve estos problemas."

También esperaríamos algún tipo de traducción automática integrada como la que puede obtener ahora usando la aplicación de terceros Navi para traducir automáticamente sus conversaciones de FaceTime, o tal vez una forma de guardar estas transcripciones durante las entrevistas para acceso más fácil después.

Hemos disfrutado durante mucho tiempo de las excelentes funciones de accesibilidad de Apple, que nos permiten personalizar nuestros dispositivos iOS hasta un punto casi absurdo. Desde ajustar la pantalla para hacer que los colores y el texto sean más fáciles de ver, hasta controlar toda la interfaz de usuario con dispositivos externos, hasta hacer que el teléfono le notifique cuando alguien toca el timbre o llega una furgoneta de reparto.

Ahora, todos estamos obteniendo los beneficios de la mayor investigación de Apple en tecnología de realidad aumentada. Es posible que no nos interesen IKEA o LEGO, ni siquiera queramos comprar un par de las legendarias gafas AR de Apple, pero eso no significa que no podamos disfrutar de los frutos de esa investigación.

Recomendado: