OpenAI GPT-4o com respostas em tempo real e interação de vídeo anunciadas, e recursos GPT-4 agora disponíveis gratuitamente

Na segunda-feira, a OpenAI realizou sua tão esperada atualização de primavera, durante a qual anunciou um novo aplicativo de desktop para ChatGPT, pequenas alterações na interface do cliente web ChatGPT e um novo modelo carro-chefe de inteligência artificial (IA) chamado GPT-4o. O evento foi transmitido online no YouTube e aconteceu diante de um pequeno público ao vivo. Durante o evento, a AI também anunciou que todos os recursos do GPT-4 que antes estavam disponíveis apenas para usuários premium agora estarão disponíveis gratuitamente para todos.

Atualizando o aplicativo de desktop ChatGPT e a interface OpenAI

Mira Murati, CTO da OpenAI, deu início ao evento e lançou o novo aplicativo de desktop ChatGPT, que agora está equipado com visão computacional e pode olhar para a tela do usuário. Os usuários poderão ligar e desligar o recurso, e a inteligência artificial analisará e auxiliará em tudo o que for mostrado. O CTO também revelou que a interface web do ChatGPT será ligeiramente atualizada. A nova interface do usuário tem um visual minimalista e os usuários verão cartões de sugestões ao entrar no site. Os ícones também são menores e cobrem todo o painel lateral, deixando mais tela disponível para conversas. Notavelmente, o ChatGPT agora pode acessar seu navegador e compartilhar resultados de pesquisa em tempo real.

Recursos do GPT-4o

O destaque do evento OpenAI foi o mais recente modelo de IA carro-chefe da empresa, chamado GPT-4o, onde o “o” significa modelo omni. Murati enfatiza que o novo chatbot é duas vezes mais rápido, 50%. mais barato e tem limites de velocidade cinco vezes maiores em comparação com o modelo GPT-4 Turbo.

O GPT-4o também oferece melhorias significativas na latência de resposta e pode gerar respostas em tempo real, mesmo no modo de fala. Numa demonstração ao vivo do modelo de IA, a OpenAI mostrou que pode falar em tempo real e responder ao usuário. O ChatGPT baseado em GPT-4o agora pode ser interrompido para responder outra pergunta, o que antes era impossível. Porém, a maior melhoria do modelo apresentado é a adição de vozes emocionais.

Agora, quando o ChatGPT fala, suas respostas incluem diferentes inflexões de voz, fazendo com que pareça mais humano e menos robótico. A demonstração mostrou que a inteligência artificial também pode capturar emoções humanas na fala e reagir a elas. Por exemplo, se o usuário falar com voz de pânico, ele falará com voz preocupada.

Também fez melhorias na visão computacional e, com base em demonstrações ao vivo, agora pode processar e responder ao vídeo ao vivo da câmera do dispositivo. Ele pode ver como o usuário resolve uma equação matemática e oferece orientação passo a passo. Também pode corrigir o usuário em tempo real caso ele cometa um erro. Da mesma forma, agora ele pode processar grandes dados de codificação, analisá-los instantaneamente e compartilhar sugestões para melhorá-los. Por fim, os usuários agora podem abrir a câmera e falar com o rosto visível, e a inteligência artificial pode detectar suas emoções.

Finalmente, outra demonstração ao vivo mostrou que o ChatGPT, alimentado pelo mais recente modelo de IA, também pode realizar traduções de voz ao vivo e falar vários idiomas em um curto espaço de tempo. Embora a OpenAI não tenha mencionado o preço da assinatura para acesso ao modelo GPT-4o, enfatizou que ele será lançado nas próximas semanas e estará disponível como API.

GPT-4 agora está disponível gratuitamente

Além de todos os novos recursos, a OpenAI também disponibilizou gratuitamente o modelo GPT-4 AI e seus recursos. Quem utilizar o nível gratuito da plataforma terá acesso a recursos como GPT (mini chatbots projetados para aplicações específicas), GPT Store, recurso de memória onde a IA pode lembrar do usuário e informações específicas relacionadas a ele para conversas futuras e análise avançada de dados sem nenhum custo.

Fonte