O avanço dos modelos de inteligência artificial voltados ao raciocínio tem ampliado a capacidade de resolver problemas complexos, mas também intensificado os custos energéticos da tecnologia.
Relatório do projeto AI Energy Score, divulgado pela Bloomberg, mostra que sistemas com recursos avançados de raciocínio podem consumir até 100 vezes mais energia do que modelos tradicionais.
A pesquisa avaliou 40 modelos de IA de código aberto, incluindo tecnologias da OpenAI, Google e Microsoft. As diferenças de consumo ficaram evidentes ao comparar modos com e sem raciocínio ativado.
Um dos exemplos mais marcantes envolve uma versão compacta do modelo R1, da DeepSeek: o gasto subiu de 50 watt-hora para 308.186 watt-hora quando o raciocínio foi habilitado. Segundo os autores, a produção de volumes maiores de texto por sistemas avançados explica parte significativa desse salto.
O estudo também aponta impactos na infraestrutura global. A expansão de data centers, necessária para dar suporte ao uso crescente de IA, já afeta o custo energético em algumas regiões.
Investigação anterior da Bloomberg mostrou que áreas próximas a grandes centros de processamento registraram altas de até 267% nas tarifas de energia em cinco anos.
Modelos de raciocínio ganharam notoriedade após o lançamento do o1, da OpenAI, mas ainda há poucos estudos sobre o impacto energético da fase de inferência, quando os modelos executam tarefas após o treinamento.
Para medir essas diferenças, pesquisadores aplicaram perguntas simples e problemas matemáticos complexos aos modelos, monitorando o consumo em tempo real com a ferramenta CodeCarbon.
Os resultados mostram variações amplas: um dos modelos Phi 4, da Microsoft, passou de 18 para 9.462 watt-hora com raciocínio ativado, enquanto o modelo gpt-oss da OpenAI oscilou entre 5.313 e 8.504 watt-hora, dependendo da configuração.
Pontos centrais do estudo:
- Modelos com raciocínio podem gastar até 100 vezes mais energia.
- DeepSeek registrou as maiores diferenças entre os modos avaliados.
- Crescimento de data centers está associado a aumentos expressivos no custo de energia em algumas regiões.
- A inferência torna-se a principal fonte de consumo em sistemas avançados.
- Especialistas recomendam selecionar modelos adequados a cada tarefa para evitar desperdício.
Os autores defendem que a compreensão do custo energético deve orientar escolhas mais eficientes, já que nem toda atividade exige o uso de modelos complexos.
O CEO da Microsoft, Satya Nadella, reforçou recentemente que o setor precisa conquistar “permissão social para consumir energia”, algo que depende da capacidade de a IA gerar benefícios amplos e impulsionar o crescimento econômico.

