Acontece que quando os modelos de IA mais inteligentes “pensam”, eles podem, na verdade, estar promovendo um acalorado debate interno. Um fascinante novo estudo de coautoria de pesquisadores do Google alterou a forma como tradicionalmente entendemos a inteligência synthetic. Isso sugere que modelos de raciocínio avançados – especificamente DeepSeek-R1 e QwQ-32B do Alibaba – não estão apenas processando números em uma linha reta e lógica. Em vez disso, eles parecem estar se comportando surpreendentemente como um grupo de humanos tentando resolver um quebra-cabeça juntos.
O artigo, publicado no arXiv com o sugestivo título Modelos de raciocínio geram sociedades de pensamento, postula que esses modelos não apenas computam; eles simulam implicitamente uma interação “multiagente”. Think about uma sala de reuniões cheia de especialistas discutindo ideias, desafiando as suposições uns dos outros e analisando um problema de diferentes ângulos antes de finalmente chegar a um acordo sobre a melhor resposta. Isso é essencialmente o que está acontecendo dentro do código. Os investigadores descobriram que estes modelos apresentam “diversidade de perspetivas”, o que significa que geram pontos de vista contraditórios e trabalham para os resolver internamente, tal como uma equipa de colegas debatendo uma estratégia para encontrar o melhor caminho a seguir.
Durante anos, a suposição dominante no Vale do Silício foi que tornar a IA mais inteligente period simplesmente uma questão de torná-la maior
Alimentando-o com mais dados e investindo mais poder de computação bruto no problema. Mas esta pesquisa inverte totalmente esse roteiro. Sugere que a estrutura do processo de pensamento é tão importante quanto a escala.
Estes modelos são eficazes porque organizam os seus processos internos para permitir “mudanças de perspetiva”. É como ter um advogado do diabo incorporado que força a IA a verificar o seu próprio trabalho, a fazer perguntas esclarecedoras e a explorar alternativas antes de cuspir uma resposta.
Para usuários comuns, essa mudança é enorme
Todos nós já experimentamos uma IA que fornece respostas simples e confiantes, mas, em última análise, erradas. Um modelo que funciona como uma “sociedade” tem menos probabilidades de cometer esses erros tropeços porque já testou a sua própria lógica. Isso significa que a próxima geração de ferramentas não será apenas mais rápida; serão mais matizados, melhores no tratamento de questões ambíguas e, sem dúvida, mais “humanos” na forma como abordam problemas complexos e confusos. Poderia até ajudar com o problema do preconceito – se a IA considerar vários pontos de vista internamente, é menos provável que fique presa num único modo de pensar falho.

Em última análise, isto afasta-nos da ideia de que a IA é apenas uma calculadora glorificada e aproxima-nos de um futuro onde os sistemas são concebidos com diversidade interna organizada. Se as descobertas do Google forem verdadeiras, o futuro da IA não se trata apenas de construir um cérebro maior – trata-se de construir uma equipe melhor e mais colaborativa dentro da máquina. O conceito de “inteligência coletiva” não se aplica mais apenas à biologia; pode ser o modelo para o próximo grande salto tecnológico.











