Na semana cheia de novidades dos produtos da OpenAI, o ChatGPT finalmente começou a liberar uma atualização que foi anunciada no início deste ano. Nesta semana, a empresa divulgou que o recurso Advanced Voice Mode (modo de voz avançado) está recebendo a capacidade de visualizar imagens em tempo real.
A novidade, chamada Live Vision, começou a ser lançada na última quinta-feira (12) para usuários do ChatGPT Plus e Pro. De acordo com a OpenAI, a funcionalidade estará disponível para assinantes dos planos Enterprise e Edu a partir de janeiro.
A capacidade do ChatGPT de interpretar imagens foi apresentada em maio deste ano durante a transmissão Spring Updates como um recurso complementar ao modo de conversação avançado. No entanto, até agora, a empresa havia liberado o Advanced Voice Mode apenas com suporte a áudio.
Em uma demonstração recente para anunciar o lançamento do Live Vision, a equipe da OpenAI interagiu com o chatbot por meio de um celular no modo de voz, mantendo a câmera do aparelho ligada. Durante a interação, os profissionais desenharam um corpo em um quadro e pediram que o ChatGPT interpretasse o que estava sendo ilustrado.
Além de interpretar as imagens captadas pela câmera do dispositivo móvel, o Live Vision consegue visualizar e entender o que está na tela do aparelho para realizar consultas e interagir com os usuários. Para ativar o recurso, basta selecionar a opção “Compartilhar Tela” no menu de três pontos, disponível no modo de voz.
O anúncio da liberação do Live Vision chega dias após a OpenAI lançar o Sora, seu modelo de IA para geração de vídeos. Conheça!
Para ficar por dentro das principais notícias de tecnologia, siga o TechShake no Instagram.
VEJA TAMBÉM!