Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- O MIT estimou o poder de computação para 809 grandes modelos de linguagem.
- A computação complete afetou a precisão da IA mais do que qualquer truque algorítmico.
- O poder da computação continuará a dominar o desenvolvimento da IA.
É bem sabido que modelos de inteligência synthetic como o GPT-5.2 melhoram seu desempenho nas pontuações de benchmark à medida que mais computação é adicionada. É um fenômeno conhecido como “leis de escala”, a regra prática da IA que diz que a precisão melhora proporcionalmente ao poder da computação.
Mas quanto efeito o poder da computação tem em relação a outras coisas que a OpenAI, o Google e outros trazem – como algoritmos melhores ou dados diferentes?
Para encontrar a resposta, os pesquisadores Matthias Mertens e colegas do Instituto de Tecnologia de Massachusetts examinaram dados de 809 programas de IA de grandes modelos de linguagem. Eles estimaram quanto do desempenho de cada benchmark period atribuível à quantidade de poder computacional usado para treinar os modelos.
Também: Por que você pagará mais pela IA em 2026 e três dicas para economizar dinheiro para experimentar
Eles então compararam esse número com o valor provavelmente atribuível à engenharia exclusiva ou à inovação algorítmica de uma empresa, o que eles chamam de “molho secreto”, que às vezes – mas nem sempre – é divulgado. E compararam melhorias gerais em IA em toda a comunidade de desenvolvedores e compartilharam dicas e truques que melhoram consistentemente o desempenho do modelo.
Seus resultados são relatados no artigo “Existe um ‘molho secreto’ no desenvolvimento de modelos de linguagem em grande escala?”, que foi postado na pré-impressão do arXiv servidor.
À medida que Mertens e a sua equipa formularam a questão: “A fronteira do avanço da IA é impulsionada pela escala – modelos cada vez maiores treinados em mais computação? Ou é alimentada pelo progresso tecnológico na forma de inovações algorítmicas disseminadas abertamente que aumentam o desempenho em todo o campo?
“Ou as empresas líderes possuem um ‘molho secreto’ genuíno – técnicas proprietárias que produzem vantagens sustentadas além da escala e do progresso algorítmico compartilhado?”
Como o GPT da OpenAI venceu o Llama: os autores descobriram que a maior diferença entre o Llama de código aberto da Meta e o GPT-4.5 da OpenAI period o maior poder de computação usado para treinar.
MIT
Muito mais computação faz a maior diferença
Alerta de spoiler: existe, de fato, um ingrediente secreto, mas é muito menos importante do que simplesmente ter um computador maior.
Mertens e sua equipe encontraram evidências de todos os quatro avanços úteis: mais computação, molho secreto, avanços gerais da indústria e melhorias específicas de uma determinada família de grandes modelos de linguagem (LLMs).
Mas a maior diferença, de longe, foi quanto poder de computação foi utilizado pela OpenAI e outros.
Além disso: a IA acabou com a estratégia de nuvem: por que a computação híbrida é o único caminho a seguir agora
“Os avanços na fronteira dos LLMs são impulsionados principalmente por aumentos na computação de treinamento, com apenas contribuições modestas do progresso algorítmico compartilhado ou de tecnologias específicas do desenvolvedor”, relatam Mertens e sua equipe.
Isso significa que os melhores modelos continuarão a resultar de efeitos de escala na computação, concluem.
“Como resultado, a liderança sustentada em capacidades de IA de ponta parece improvável sem acesso contínuo a recursos computacionais em rápida expansão.
“Isso implica que o acesso à computação é basic para a liderança em IA e ajuda a explicar a corrida contínua para investir em infraestrutura computacional”.
Especificamente, um aumento de 10 vezes no poder de computação tem um efeito mensurável na precisão do teste de benchmark de um modelo, descobriram eles.
“Os modelos no percentil 95 usam 1.321 vezes mais computação do que aqueles no percentil 5”, relatam eles, o que significa que há mais de mil vezes mais computação usada para os modelos que são melhores que 95% dos modelos em benchmarks, assim como para modelos com desempenho mais baixo. Essa é uma enorme lacuna computacional.
Também: Os modelos abertos de IA da China estão empatados com o Ocidente – eis o que acontece a seguir
Uma ressalva importante é que Mertens e a equipe estavam comparando modelos de código aberto, como o DeepSeek AI, que podem examinar detalhadamente, com modelos proprietários, como o GPT-5.2 da OpenAI, que é de código fechado e muito mais difícil de avaliar.
Eles confiaram em estimativas de terceiros para preencher as lacunas de modelos proprietários, como GPT e Gemini do Google, todos discutidos e citados na seção “Métodos” do artigo no closing.
(Divulgação: Ziff Davis, empresa controladora da ZDNET, entrou com uma ação judicial em abril de 2025 contra a OpenAI, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)
Os custos estão aumentando
O estudo não identifica especificamente o custo monetário da computação, mas você pode inferir que o custo está cada vez mais alto.
Sabemos, através de outras pesquisas do setor, que o custo dos chips de computador e dos componentes de rede relacionados necessários para ampliar a IA está geralmente aumentando.
Um estudo realizado esta semana pela corretora de Wall Avenue Bernstein Analysis descobriu que a receita dos fabricantes de chips em 2025, incluindo a Nvidia, o fabricante dominante de GPUs que impulsionam o desenvolvimento de IA, refletiu aumentos dramáticos de preços em todos os níveis.
Depois de uma queda nas vendas de chips após a pandemia de COVID-19, as vendas da indústria finalmente retornaram aos níveis de 2019, escreveu Stacy Rasgon, analista de chips da Bernstein, citando dados do principal fornecedor de dados da indústria, a World Semiconductor Commerce Statistics.
Além disso: o Frontier da OpenAI parece outra ferramenta de agente de IA – mas é realmente um jogo de poder empresarial
Mas os preços médios dos chips em 2025 foram 70% mais altos do que em 2019, o que levou Rasgon a observar: “O crescimento da receita nos últimos anos continua dominado pelos preços”. Os chips estão simplesmente ficando muito mais caros, incluindo o premium, observou ele, para as GPUs da Nvidia e aumentos de preços de dois dígitos para os chips de memória DRAM da Micron Expertise e Samsung dos quais os LLMs dependem, como observei anteriormente.
Simplificando, é preciso mais dinheiro para fabricar o próximo grande computador para cada novo modelo de IA de ponta, porque são necessários novos chips cujo preço continua subindo. Mesmo que cada nova GPU Nvidia Blackwell ou Rubin seja mais eficiente que a anterior, o que a Nvidia frequentemente enfatiza, as empresas ainda precisam comprar um número suficiente delas para aumentar o poder computacional complete à sua disposição ao desenvolver o próximo modelo de fronteira.
Isso explica as centenas de milhares de milhões de dólares em investimentos de capital que Google, Meta Platforms, Microsoft e outros da Alphabet gastam anualmente. Também explica por que o CEO da OpenAI, Sam Altman, está no processo de arrecadar dezenas de bilhões em financiamento e planeja gastar mais de um trilhão de dólares.
Software program inteligente ainda pode reduzir custos
A boa notícia do estudo é que o custo não domina completamente e a engenharia ainda pode fazer a diferença.
Mesmo que a quantidade de computação domine os LLMs de fronteira, o progresso técnico na forma de algoritmos mais inteligentes – software program, em outras palavras – pode ajudar a reduzir custos ao longo do tempo.
Os autores descobriram que os desenvolvedores de modelos menores, que geralmente têm orçamentos de computação mais baixos, são capazes de usar software program inteligente para acompanhar os modelos de fronteira no desempenho de inferência, a realização de previsões reais para um modelo de IA implantado.
Além disso: como a nova maneira do DeepSeek de treinar modelos avançados de IA pode atrapalhar tudo – de novo
“Os maiores efeitos do progresso técnico surgem abaixo da fronteira”, escreveram Mertens e equipa. “Durante o período da amostra, a computação necessária para atingir limites modestos de capacidade diminuiu por fatores de até 8.000 vezes, refletindo uma combinação de avanços algorítmicos compartilhados, tecnologias específicas de desenvolvedores e inovações específicas de modelos.
“Assim, o segredo do desenvolvimento do LLM tem menos a ver com a manutenção de uma grande liderança de desempenho no topo e mais com a compactação de capacidades em modelos menores e mais baratos.”
Poder-se-ia dizer, então, que para as empresas mais pequenas as coisas estão a ficar mais inteligentes na IA, no sentido de que utilizam menos energia para alcançar resultados comparáveis. Fazer mais com menos é uma forma válida de definir “inteligente” no contexto da computação.
Um mundo de ricos e despossuídos
Tudo isso confirma que neste momento é um mundo bifurcado de IA. Para alcançar uma inteligência cada vez maior, é necessário construir computadores cada vez maiores para modelos de fronteira cada vez maiores.
Também: O Frontier da OpenAI parece outra ferramenta de agente de IA – mas é realmente um jogo de poder empresarial
Mas para implantar a IA na produção, é possível trabalhar em modelos menores com software program melhor e torná-los mais capazes dentro de um orçamento de computação limitado.
De qualquer forma, gigantes como Google, Anthropic e OpenAI provavelmente manterão sua liderança nas manchetes dos modelos mais capazes a qualquer momento, graças aos seus bolsos fundos.











