OpenAI comenzó a lanzar el modo de voz avanzado para los usuarios de ChatGPT Plus y Team, que posibilita una conversación más natural con la Inteligencia Artificial(IA) mediante la muestra de "emociones y señales no verbales".
LEE TAMBIÉN
- Avances de la IA: actualización de Llama a su versión 3.1, ChatGPT con nuevo buscador y Gemini 1.5 Flash
- NotCo se une con Cramer para crear perfumes con Inteligencia Artificial Generativa
- Chile declarado líder de avance en Inteligencia Artificial en América Latina
- Los acertijos que los humanos todavía resuelven mejor que la inteligencia artificial
OpenAI lanza ChatGPT Plus
La compañía dirigida por Sam Altman presentó en mayo de este año su modelo GPT-4o, diseñado para ofrecer una interacción entre la persona y la máquina "más natural", al disponer de la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.
Asimismo, tal y como explicó la tecnológica en ese momento, este modelo incluye un 'Modo voz' avanzado, con el que permite elegir entre una serie de voces para personalizar la interacción con el 'chatbot'.
Sin embargo, aunque el 'Modo voz' avanzado iba a probarse con un grupo de usuarios en julio, OpenAI anunció el retraso de esta función para asegurarse de que cumplen los "altos estándares de seguridad y fiabilidad". Más tarde, en durante el mes de julio, la tecnológica anunció el despliegue de una versión alfa de este modo de voz avanzado para un grupo reducido de suscriptores de ChatGPT Plus.
ChatGPT Plus: modo de voz avanzado permite conversar con Inteligencia Artificial de "forma más natural"
Ahora, OpenAI anunció que ha comenzado a lanzar el modo de voz avanzado de ChatGPT para los usuarios suscritos a la versión Plus y Teams, que ya podrán comenzar a conversar con la IA de OpenAI de forma más natural en tiempo real.
Así lo detalló la tecnológica en una publicación en la red social X(Twitter), donde compartió que, con el lanzamiento, se incluyeron novedades como instrucciones personalizadas, memoria de conversaciones y cinco voces nuevas con acentos mejorados.
En concreto, las nuevas voces integradas son las denominadas como Arbor, Maple, Sol, Spruce y Vale, que se suman a las ya existentes Breeze, Juniper, Cove y Ember. Hay que tener en cuenta que una de las voces que falta en el modo de voz avanzado es la de Sky, que fue utilizada por OpenAI como demostración de esta función, y acabó generando polémica por parecerse a la voz de la actriz Scarlett Johansson, quien ya puso voz a un asistente de IA en la película Her, de 2013.
Por otra parte, en cuanto a las instrucciones personalizadas, OpenAI indicó que permiten configurar cómo debe responder ChatGPT ante las interacciones de los usuarios. Por ejemplo, se puede solicitar que responda con un tono tranquilo o que se refiera al usuario por su nombre.
La compañía también ha señalado que mejoraron la velocidad y la fluidez de la conversación. Asimismo, también añadieron memoria para que el 'chatbot' recuerde las conversaciones anteriores para poder consultarlas.
A pesar de que esta característica de modo de voz avanzado está disponible en más de 50 idiomas, OpenAI ha especificado que, por el momento, no está disponible para usuarios en la Unión Europea, así como tampoco se ha desplegado en Reino Unido, Suiza, Islandia, Noruega y Liechtenstein.