GPT-4o: como funciona e tudo que você precisa saber sobre novo ChatGPT
Publicidade
Por , para o TechTudo

O GPT-4o é a nova versão do ChatGPT, anunciada pela OpenAI na última segunda-feira (13). O modelo de inteligência artificial (IA) é mais poderoso do que seus antecessores – as versões GPT 3.5 e GPT 4 –, entregando respostas mais rápidas e precisas. A novidade ainda é capaz de interagir com os usuários por mensagem de voz e até reconhece expressões faciais, em um processo que se assemelha a uma conversa entre humanos. A empresa divulgou que o GPT-4o será disponibilizado para todos os planos, incluindo os gratuitos, mas com algumas limitações. Neste guia completo, saiba do que esse modelo é capaz, quais são as diferenças entre as versões e muito mais.

ChatGPT anuncia novo modelo que pode conversar por voz e vídeo

ChatGPT anuncia novo modelo que pode conversar por voz e vídeo

📝 Tem como ganhar dinheiro com inteligência artificial? Saiba mais no Fórum do TechTudo

Nas linhas a seguir, você descobre tudo sobre o novo modelo de IA da OpenAI, o GPT-4o. Confira.

  1. O que é o GPT-4o? O que significa "omni"?
  2. GPT-4o x GPT-4: quais são as diferenças?
  3. Tudo que o GPT-4o é capaz de fazer
  4. GPT-4o será gratuito?
  5. GPT-4o tem sentimentos?
  6. Quando o GPT-4o vai estar disponível?

1. O que é o GPT-4o? O que significa "omni"?

O GPT-4o é a nova versão do modelo de IA desenvolvido pela OpenAI, capaz de conversar com os internautas como se fosse um humano. Seu nome vem de "ChatGPT 4 Omni", em que "omni" é um radical de origem latina que significa "tudo". Em português, ele costuma aparecer como o prefixo "oni", como nas palavras "onisciente" (ciente de tudo) ou "onívoro" (come qualquer tipo de comida, seja plantas ou carnes).

Até o momento, os usuários gratuitos do ChatGPT só tinham acesso ao modelo GPT 3.5, que conseguia apenas responder comandos por texto e não é atualizado desde janeiro de 2022. Já os assinantes do ChatGPT Plus e Teams já podiam usar o GPT-4, que conta com recursos extras, como acesso a dados da Internet e possibilidade de gerar imagens a partir de comandos de texto.

O novo modelo do ChatGPT é mais poderoso e rápido — Foto: Reprodução/Pexels
O novo modelo do ChatGPT é mais poderoso e rápido — Foto: Reprodução/Pexels

O novo GPT-4o, contudo, eleva a capacidade do GPT-4 ao inovar na forma de interagir com os usuários. O principal diferencial deste novo modelo é a possibilidade de responder a comandos utilizando áudio, “visão” e texto em tempo real. Isso significa que o GPT-4o consegue entender uma combinação de comandos feitos por texto, áudio e imagem e responder utilizando os mesmos métodos.

2. GPT-4o x GPT-4: quais são as diferenças?

Sendo seu sucessor, já era esperado que o GPT-4o superasse a capacidade de raciocínio e interação do GPT-4. O novo modelo é capaz de entender diferentes tipos de comando – como texto, áudio e imagem – e também pode utilizar uma combinação destes formatos para responder. Na prática, o usuário poderá manter uma conversa com o chatbot de forma mais parecida a uma entre duas pessoas, inclusive mostrando elementos do ambiente para o ChatGPT.

Modelos anteriores dependiam de diferentes ferramentas para analisar texto, imagens e áudio, como extensões para navegadores ou GPTs personalizadas por usuários. O GPT-4o, contudo, foi treinado para conseguir processar todos os formatos em uma só rede neural.

Outra diferença do novo modelo em comparação aos anteriores é a rapidez em que consegue processar os comandos de voz. Em média, o GPT-4 é capaz de responder a estas entradas em 320 milissegundos, tempo bastante parecido com o que uma pessoa leva para responder em uma conversa.

3. Tudo que o GPT-4o é capaz de fazer

Como mencionado anteriormente, a principal inovação do GPT-4o é a capacidade de processar diferentes formatos e responder rapidamente aos comandos. Nos vídeos de apresentação do GPT-4o fica bastante clara a habilidade de conversação da ferramenta. Em um deles, duas pessoas brincam de "Pedra, Papel e Tesoura" e o chatbot consegue dizer quem venceu a partida ou se foi um empate. Em outro vídeo, a ferramenta comenta sobre a camiseta que o rapaz estava usando, sem receber qualquer comando para isso. Ou seja, o GPT-4o consegue “enxergar” o que acontece no “mundo real” e utilizar esta informação para interagir numa conversa por conta própria.

Além de conseguir interagir com diferentes elementos, as reações da inteligência artificial também simulam com eficiência a de um humano. Nos vídeos a seguir, é possível ver que o chatbot dá risada em momentos oportunos, demonstra surpresa, faz elogios precisos e ainda muda o tom de voz para falar com um bichinho de estimação. As interações do GPT-4o são tão realistas que, nas redes sociais, usuários compararam o chatbot com o software do filme "Ela" ("Her", no título original), em que o protagonista (Joaquin Phoenix) se apaixona por uma inteligência artificial.

4. GPT-4o será gratuito?

De acordo com a OpenAI, o GPT-4o será disponibilizado para todos os usuários do ChatGPT, incluindo os que não assinam nenhum plano pago. Neste caso, contudo, a interação terá um limite de mensagens, que ainda não foi divulgado. Ao que tudo indica, os usuários dos planos pagos também terão um limite para o uso da ferramenta, mas a disponibilidade será cinco vezes maior do que a do plano grátis. Além disso, usuários do plano Plus terão acesso ao GPT-4o em primeira mão.

ChatGPT Plus é uma das versões pagas do software — Foto: Reprodução/Maria Diaz/ZDNET
ChatGPT Plus é uma das versões pagas do software — Foto: Reprodução/Maria Diaz/ZDNET

Vale ressaltar que o ChatGPT oferece três possibilidades de assinatura para os usuários. O primeiro é o gratuito, que, atualmente, concede acesso ao GPT-3.5. O plano Plus custa $ 20 por mês (cerca de R$ 102) e é alimentado pelo GPT-4, DALL·E e outras ferramentas exclusivas. Já o plano Team custa $ 25 (cprca de R$ 128) por mês por pessoa e conta com maior limite de mensagens, além de recursos administrativos para gerenciar os conteúdos da sua equipe.

5. GPT-4o tem sentimentos?

Por mais que as reações do GPT-4o sejam muito parecidas com as de uma pessoa de verdade, é seguro dizer que o chatbot não tem sentimentos. As inteligências artificiais conversacionais, como o ChatGPT, são treinadas com uma imensa quantidade de dados para que sejam capazes de compreender e até simular emoções humanas, mas isso não significa que conseguem, de fato, senti-las. Ou seja, para essas ferramentas, os sentimentos humanos não passam de dados que elas devem processar para dar uma resposta mais efetiva.

Ferramentas com inteligência artificial não possuem sentimentos humanos — Foto: Reprodução/Canva
Ferramentas com inteligência artificial não possuem sentimentos humanos — Foto: Reprodução/Canva

Já existe um debate em torno de relacionamentos entre pessoas e robôs com IA. O aplicativo Replika, por exemplo, tem sido usado para que usuários criem “parceiros românticos” personalizados, levantando uma discussão sobre traição virtual. Outras pessoas procuram tecnologias semelhantes para "servir de confidente", criando um laço de amizade. No entanto, é importante ter em mente que as inteligências artificiais são apenas máquinas e, por isso, não conseguem ter sentimentos humanos.

6. Quando o GPT-4o vai estar disponível?

O GPT-4o será disponibilizado gradualmente para os usuários do ChatGPT. De acordo com a OpenAI, as funções de texto e imagem do GPT-4o começaram a ser implementadas já na última segunda-feira (13). Além disso, nas próximas semanas, uma nova versão do Modo de Voz alimentado pelo GPT-4o ficará disponível em breve para usuários do ChatGPT, em fase alpha (ou seja, uma etapa inicial de lançamento, ainda precisando mais de testes).

O GPT-4o será disponibilizado de forma gradativa para os usuários — Foto: Reprodução/Geekflare
O GPT-4o será disponibilizado de forma gradativa para os usuários — Foto: Reprodução/Geekflare

A empresa informou ainda que os desenvolvedores poderão acessar o GPT-4o na API como um modelo de texto e visão, já que esta tecnologia é mais rápida e mais barata do que a usada atualmente, o GPT-4 Turbo. Também nas próximas semanas, a OpenAI deve lançar um suporte para as novas capacidades de áudio e vídeo, a princípio, exclusivamente para um pequeno grupo de parceiros.

Com informações de G1 e OpenAI.

Mais recente Próxima Google I/O 2024 anuncia IAs de imagens e vídeos e novidades do Gemini; confira
Mais do TechTudo