Conclusiones clave
- El asistente de voz Alexa de Amazon puede copiar una voz con tan solo un minuto de audio.
- Puedes pedirle a Alexa que lea una historia con la voz de un padre muerto.
- Es la misma idea que las falsificaciones profundas, solo se usa para los poderes del bien.
El último truco de Amazon Alexa es aprender a imitar la voz de un ser querido muerto, para que pueda hablarte desde más allá de la tumba.
Alexa necesita solo un minuto de audio hablado para imitar una voz de manera convincente. Amazon lo anuncia como una característica reconfortante que puede ponerlo en contacto con sus seres queridos, pero también podría ser una experiencia bastante espeluznante. Y muestra lo fácil que es hacer un audio falso profundo que sea lo suficientemente bueno como para engañarnos, incluso cuando la voz es una que conocemos muy bien.
"Amazon definitivamente ha ingresado a un territorio bastante único y extraño con su anuncio de que Alexa pronto podrá aprender y luego usar la voz de parientes muertos pronto", dijo Bill Mann, experto en privacidad de Restore Privacy. Lifewire por correo electrónico. "Para algunas personas, no es espeluznante en absoluto. De hecho, puede ser bastante conmovedor".
Fantasma en la máquina
Como parte de su conferencia anual re:MARS, Amazon muestra la función en un breve video. En él, un niño le pregunta a Alexa si la abuela puede seguir leyéndole "El mago de Oz", la obra de dominio público favorita de todos los niños. Y es un momento bastante conmovedor. Es difícil no sentir emociones humanas cuando la abuela empieza a leer.
"Los seres humanos luchan contra la mortalidad, especialmente en la cultura occidental. Durante siglos hemos tratado de encontrar formas de conmemorar a los muertos, desde máscaras mortuorias hasta mechones de cabello, fotos antiguas y películas antiguas", Andrew Selepak, profesor de redes sociales en la Universidad de Florida, le dijo a Lifewire por correo electrónico. "Los deepfakes usan la última tecnología para crear una nueva máscara mortuoria de un ser querido fallecido. Pero, dependiendo de la perspectiva de cada uno, ¿es espeluznante o una forma de conmemorar y aferrarse a alguien que amas después de que haya muerto?"
Pero un memento mori puede ser tanto reconfortante como espeluznante. El amigo de un miembro de la familia está muerto, pero aún puedes escucharlo hablar. No ayuda que Alexa tenga un historial de comportamiento extraño y, a veces, aterrador. En 2018, cuando el columnista de opinión del New York Times, Farhad Manjoo, se acostaba, su Amazon Echo "comenzó a gemir, como un niño gritando en el sueño de una película de terror".
Poco después, Amazon reconoció que Alexa a veces se reía a carcajadas, lo que, junto con adolescentes y sótanos, es la película de terror 101.
Uno solo puede preguntarse cómo se sentiría si Alexa hiciera los mismos trucos con la voz de la abuela.
Falso profundo
La aparente facilidad con la que Alexa aprende a imitar una voz nos lleva a usos más nefastos de la clonación de voz: falsificaciones profundas.
"El audio falso no es nuevo, incluso si es poco entendido y poco conocido. La tecnología ha estado disponible durante años para recrear la voz de un individuo con inteligencia artificial y aprendizaje profundo utilizando relativamente poco audio real de la persona, " dice Selepak. "Tal tecnología también podría ser peligrosa y destructiva. Una persona perturbada podría recrear la voz de un exnovio o novia muerto y usar el nuevo audio para decir cosas odiosas e hirientes".
Eso es solo en el contexto de Alexa. El audio falso profundo podría ir mucho más allá, convenciendo a la gente de que los políticos prominentes creen cosas que ellos no creen, por ejemplo. Pero, por otro lado, cuanto más nos acostumbremos a estas falsificaciones profundas, tal vez en forma de estas voces de Alexa, más escépticos seremos de las falsificaciones más nefastas. Por otra parte, dado lo fácil que es difundir mentiras en Facebook, tal vez no.
Amazon no ha dicho si esta característica llegará a Alexa o si es solo una demostración de tecnología. Espero que sí. La tecnología es mejor cuando se usa de una manera humanista como esta, y aunque la reacción fácil es llamarla espeluznante, como dice Selepak, en realidad no es muy diferente de ver videos antiguos o escuchar mensajes de voz guardados. como un personaje en un programa de televisión con un guión perezoso.
Y si la tecnología para falsificaciones profundas está disponible, ¿por qué no usarla para consolarnos?