A OpenAI começou a lançar o seu Modo de Voz Avançado para o ChatGPT. A novidade foi apresentada no início deste ano, junto do GPT-4o. Inicialmente, o recurso está disponível para um pequeno número de assinantes do ChatGPT Plus.
No evento de maio, a OpenAI demonstrou algumas capacidades do novo modo de voz, que funciona de maneira similar a assistentes de voz como Alexa e Siri. Ele permite que os usuários façam consultas por voz e recebam as respostas por áudio em tempo real.
Como explica o TechCrunch, o ChatGPT já conta com um modo de voz, mas a versão disponível para todos os usuários tem desempenho inferior. Isso ocorre porque o modo antigo utilizava três modelos para processar as solicitações: um para converter a voz do usuário em texto, o GPT-4 para processar a consulta e outro para converter a resposta do chatbot em áudio.
Com o Modo Voz Avançado, que utiliza o GPT-4, o ChatGPT consegue compreender e responder aos usuários com mais agilidade. Outra novidade é que o recurso consegue captar entonações e emoções presentes na voz do usuário, como tristeza, excitação e até canto.
No anúncio da nova funcionalidade, os funcionários da OpenAI apresentaram a capacidade modo de voz avançado de fornecer respostas rápidas, sem longas pausas para processar as solicitações. Um exemplo foi a solicitação para que o ChatGPT ensinasse como respirar fundo, com o modo de voz do chatbot instruindo o usuário sobre o que fazer.
O Modo Voz Avançado do ChatGPT contará com quatro vozes diferentes: Juniper, Breeze, Cove e Ember, criadas em colaboração com dubladores contratados pela OpenAI.
FIQUE POR DENTRO!