Uma publicação acidental no blog do GitHub revelou antecipadamente as primeiras informações sobre o GPT-5, nova geração de modelos de linguagem da OpenAI.
Segundo o conteúdo, que foi rapidamente removido, o novo “cérebro” do ChatGPT terá quatro versões com avanços significativos em raciocínio lógico, tarefas de programação e qualidade na experiência do usuário.
A OpenAI deve apresentar oficialmente o GPT-5 nesta quinta-feira (7), em uma transmissão ao vivo intitulada “LIVE5TREAM”, marcada para as 14h, no horário de Brasília.
Conforme a versão arquivada da postagem, os quatro modelos do GPT-5 serão: GPT-5, voltado para lógica e tarefas em múltiplas etapas; GPT-5-mini, uma versão mais leve para aplicações com restrições orçamentárias; GPT-5-nano, otimizado para velocidade e baixa latência; e GPT-5-chat, desenvolvido para interações naturais, multimodais e altamente sensíveis ao contexto, com foco em aplicações corporativas.
O texto do GitHub também menciona que o novo sistema terá “capacidades agênticas aprimoradas” e será capaz de lidar com tarefas complexas de programação com poucos comandos.
O anúncio do GPT-5 ocorre na mesma semana em que a OpenAI revelou dois modelos abertos da linha GPT-OSS, incluindo um suficientemente compacto para rodar em computadores locais sem conexão com a internet.
Além disso, nos últimos dias, diversos funcionários da OpenAI passaram a sinalizar que esta seria uma semana “marcante” para a empresa. O CEO da companhia, Sam Altman, chegou a dar pistas sobre o novo modelo com uma postagem no X (antigo Twitter) durante o final de semana.
Testadores que tiveram acesso antecipado ao GPT-5 relataram melhorias notáveis em tarefas relacionadas a matemática e programação.
No entanto, embora os avanços sejam claros, a percepção geral é de que o salto entre o GPT-4 e o GPT-5 não é tão expressivo quanto aquele observado entre o GPT-3 e o GPT-4. Duas fontes ouvidas pela Reuters sob condição de anonimato afirmaram ter se impressionado com a performance técnica do novo sistema, mas concordaram que a evolução é mais incremental desta vez.
O desenvolvimento do GPT-5 enfrentou desafios consideráveis, entre eles a limitação no volume de dados inexplorados disponíveis para treinamento, já que os modelos anteriores consumiram grande parte do conteúdo da internet.
Outro obstáculo foi a instabilidade durante os treinos em larga escala, que exigem meses de processamento e podem apresentar falhas de hardware antes da conclusão final do desempenho do modelo.
