Alexa pronto podrá imitar la voz de familiares fallecidos
Amazon quiere crear una mayor confianza en las interacciones que los usuarios tienen con el asistente virtual.
Nota de archivo: esta historia fue publicada hace más de 2 años.
PUBLICIDAD
Alexa, el asistente virtual de Amazon, pronto podrá imitar la voz de los miembros de la familia, incluso si ya fallecieron.
Esta función, presentada en la conferencia Re:Mars de Amazon en Las Vegas, está en desarrollo y permitiría al asistente virtual imitar la voz de una persona concreta a partir de una grabación de menos de un minuto.
El vicepresidente senior y director científico de Alexa, Rohit Prasad, dijo en el evento del miércoles que la intención de esta función era crear una mayor confianza en las interacciones que los usuarios tienen con Alexa mediante la inclusión de más “atributos humanos de empatía y afecto”.
Relacionadas
“Estos atributos se han vuelto más importantes durante la actual pandemia, cuando muchos de nosotros hemos perdido a nuestros seres queridos”, dijo Prasad.
“Aunque la inteligencia artificial no puede eliminar el dolor de la pérdida, definitivamente puede hacer que los recuerdos perduren”.
En un video reproducido por Amazon en el evento, un niño pequeño pregunta: “Alexa, ¿puede la abuela terminar de leerme el Mago de Oz?” A continuación, Alexa reconoce la petición y cambia de voz imitando a la abuela del niño. El asistente de voz sigue leyendo el libro con esa misma voz.
Según Prasad, para crear la función, la empresa tuvo que aprender a hacer una “voz de alta calidad” con una grabación más corta, a diferencia de las horas de grabación en un estudio.
Amazon no proporcionó más detalles sobre esta característica, que seguramente suscitará más preocupaciones en términos de privacidad y cuestiones éticas sobre el consentimiento.
Microsoft, competidor de Amazon, manifestó esta semana que reduciría sus ofertas de voz sintética y fijaría directrices más estrictas para “garantizar una participación activa” de la persona cuya voz se recrea.
El martes, Microsoft informó que limitaría los clientes que pueden utilizar el servicio, aunque seguiría destacando los usos aceptables, como un personaje interactivo de Bugs Bunny en las tiendas de AT&T.
“Esta tecnología tiene un emocionante potencial en el ámbito de la educación, la accesibilidad y el entretenimiento, pero también resulta fácil imaginar cómo podría utilizarse para suplantar a los oradores y engañar a los oyentes de forma inapropiada”, afirmó en un blog Natasha Crampton, que dirige la división de ética de la inteligencia artificial de Microsoft.