La compañía expande su tecnología de voz conversacional avanzada, ofreciendo una experiencia más humana y personalizada para los usuarios de ChatGPT Plus y Team, con planes de crecimiento en otros sectores.
OpenAI ha dado un paso más hacia el futuro de la interacción humano-máquina con el lanzamiento de su esperado ChatGPT Advanced Voice Mode en los Estados Unidos. Esta nueva función, que hasta hace poco estaba disponible solo para un pequeño grupo de pruebas, ahora llega gradualmente a todos los usuarios de sus planes de suscripción Plus y Team, brindando una experiencia conversacional mucho más fluida y realista.
El despliegue de este modo de voz avanzada se realizará a lo largo de varios días, según indicó OpenAI. Además, la compañía planea extender el acceso a los usuarios de suscripciones Edu y Enterprise en las próximas semanas, ampliando el espectro de personas que podrán interactuar verbalmente con la inteligencia artificial, sin la necesidad de escribir comandos.
Cinco voces, un diálogo más natural
Uno de los aspectos más innovadores de esta actualización es la inclusión de cinco nuevas voces, bautizadas como Arbor, Maple, Sol, Spruce y Vale. Estas se suman a las cuatro voces previamente disponibles en la plataforma (Breeze, Juniper, Cove y Ember), pero con mejoras significativas en la naturalidad y el matiz emocional de las conversaciones. Según la compañía, estos cambios están diseñados para que el usuario experimente una interacción más cercana a un diálogo humano.
Además de las voces, OpenAI ha mejorado los acentos en idiomas extranjeros populares y la fluidez en la velocidad de las conversaciones. La plataforma también cuenta con una nueva interfaz visual para el modo de voz avanzada, identificable por una esfera azul animada que acompañará la interacción.
Uno de los grandes avances del ChatGPT Advanced Voice Mode es la capacidad de personalizar las respuestas y el comportamiento de la IA mediante instrucciones específicas. Estas configuraciones permiten que la inteligencia artificial recuerde las preferencias del usuario, adaptando su estilo de respuesta y mejorando la continuidad de las conversaciones. Esta característica ya había sido introducida en la versión de texto de ChatGPT, pero ahora se expande al modo de voz, proporcionando una experiencia de interacción mucho más consistente y personalizada.
Una carrera por la supremacía en IA de voz
Desde el auge de asistentes de voz como Siri de Apple y Alexa de Amazon, el interés por mejorar las capacidades de conversación de las IA ha crecido exponencialmente. Empresas como Google, Meta y startups como Hume AI han lanzado sus propias versiones de asistentes de voz avanzados, buscando replicar la experiencia conversacional humana que OpenAI está perfeccionando con ChatGPT.
En este sentido, la competencia está más viva que nunca. Google, por ejemplo, ha incorporado capacidades de voz a su chatbot Gemini, y Meta ha comenzado a desarrollar voces que imitan a actores populares para su plataforma Meta AI. Sin embargo, OpenAI busca diferenciarse al ofrecer una plataforma más accesible y funcional para una mayor base de usuarios.
A pesar de los avances tecnológicos, la integración de voces en tiempo real no ha estado exenta de controversias. En el pasado, OpenAI enfrentó críticas cuando se sugirió que una de sus voces tenía similitudes con la de la actriz Scarlett Johansson, lo que provocó preocupaciones sobre la ética en la creación de voces sintéticas. La empresa ha negado cualquier relación con la actriz y ha asegurado que no planea utilizar voces que imiten a celebridades.
Comments