O desafio atual da IA envolve coordenação, contexto e colaboração de agentes. Como você permite que eles pensem verdadeiramente juntos, com toda a compreensão contextual, negociação e propósito compartilhado que isso implica? É um próximo passo crítico em direção a um novo tipo de inteligência distribuída que mantém os humanos firmemente informados.
Na última parada da AI Affect Collection da VentureBeat, Vijoy Pandey, vice-presidente sênior e gerente geral da Outshift da Cisco, e Noah Goodman, professor de Stanford e cofundador da People&, sentaram-se para falar sobre como ir além dos agentes que apenas se conectam a agentes que estão imersos em inteligência coletiva.
A necessidade de inteligência coletiva, não de ações coordenadas
O principal desafio, disse Pandey, é que “os agentes hoje podem se conectar, mas não conseguem realmente pensar juntos”.
Embora protocolos como MCP e A2A tenham resolvido a conectividade básica e o AGNTCY resolva os problemas de descoberta, gerenciamento de identidade, comunicação entre agentes e observabilidade, eles apenas abordaram o equivalente a fazer uma ligação telefônica entre duas pessoas que não falam a mesma língua. Mas a equipa de Pandey identificou algo mais profundo do que o encanamento técnico: a necessidade de os agentes alcançarem inteligência colectiva, e não apenas acções coordenadas.
Como a intenção compartilhada e o conhecimento compartilhado permitem a inovação coletiva
Para compreender onde a IA multiagente precisa de ir, ambos os oradores apontaram para a história da inteligência humana. Embora os humanos tenham se twister individualmente inteligentes há cerca de 300 mil anos, a verdadeira inteligência coletiva só surgiu há cerca de 70 mil anos, com o advento da linguagem sofisticada.
Este avanço permitiu três capacidades críticas: intenção partilhada, conhecimento partilhado e inovação colectiva.
“Uma vez que você tem uma intenção compartilhada, um objetivo compartilhado, você tem um corpo de conhecimento que pode modificar, evoluir, construir, você pode então avançar em direção à inovação coletiva”, disse Pandey.
Goodman, cujo trabalho une a ciência da computação e a psicologia, explicou que a linguagem é muito mais do que apenas codificar e decodificar informações.
“A linguagem é esse tipo de codificação que requer a compreensão do contexto, da intenção de quem fala, do mundo, como isso afeta o que as pessoas dirão, a fim de descobrir o que as pessoas querem dizer”, disse ele.
Esta compreensão sofisticada é o que sustenta a colaboração humana e a evolução cultural cumulativa, e é o que falta actualmente na interacção entre agentes.
Abordando as lacunas com a Web da Cognição
“Temos que imitar a evolução humana”, explicou Pandey. “Além de os agentes se tornarem cada vez mais inteligentes, tal como os seres humanos individuais, precisamos de construir infra-estruturas que permitam a inovação colectiva, o que implica partilhar intenções, coordenação e, em seguida, partilhar conhecimento ou contexto e evoluir esse contexto.”
Pandey chama isso de Web da Cognição: uma arquitetura de três camadas projetada para permitir o pensamento coletivo entre agentes heterogêneos:
Camada de protocolo: Além da conectividade básica, esses protocolos permitem a compreensão, o tratamento do compartilhamento de intenções, a coordenação, a negociação e a descoberta entre agentes de diferentes fornecedores e organizações.
Camada de tecido: Um sistema de memória compartilhada que permite aos agentes construir e evoluir contextos coletivos, com propriedades emergentes decorrentes de suas interações.
Camada do motor de cognição: Aceleradores e proteções que ajudam os agentes a pensar mais rápido enquanto operam dentro das restrições necessárias em termos de conformidade, segurança e custos.
A dificuldade é que as organizações precisam construir inteligência coletiva além das fronteiras organizacionais.
“Pense na memória compartilhada de uma forma heterogênea”, disse Pandey. “Temos agentes de diferentes partidos se unindo. Então, como você desenvolve essa memória e tem propriedades emergentes?”
Novos protocolos básicos de treinamento para promover a conexão dos agentes
Na People&, em vez de depender apenas de protocolos adicionais, a equipe de Goodman está mudando fundamentalmente a forma como os modelos básicos são treinados não apenas entre um humano e um agente, mas entre um humano e vários agentes, e especialmente entre um agente e vários humanos.
“Ao mudar o treinamento que damos aos modelos básicos e centralizar o treinamento em interações de horizonte extremamente longo, eles compreenderão como as interações devem prosseguir para alcançar os resultados corretos a longo prazo”, disse ele.
E, acrescenta, é uma divergência deliberada do caminho de maior autonomia perseguido por muitos grandes laboratórios.
“Nosso objetivo não é uma autonomia cada vez mais longa. É uma colaboração cada vez melhor”, disse ele. “A People& está construindo agentes com profundo entendimento social: entidades que sabem quem sabe o quê, podem promover a colaboração e colocar os especialistas certos em contato no momento certo.”
Estabelecendo barreiras de proteção que apoiam a cognição
Os Guardrails continuam sendo um desafio central na implantação de agentes multifuncionais que afetam todas as partes do sistema de uma organização. A questão é como impor limites sem sufocar a inovação. As organizações precisam de barreiras de proteção rígidas e semelhantes a regras, mas os humanos não funcionam dessa maneira. Em vez disso, as pessoas operam com base no princípio do dano mínimo, ou pensando no futuro sobre as consequências e fazendo julgamentos contextuais.
“Como podemos fornecer as proteções de uma forma que seja semelhante a regras, mas também apoie a cognição baseada em resultados quando os modelos forem inteligentes o suficiente para isso?” Goodman perguntou.
Pandey estendeu este pensamento à realidade das equipas de inovação que precisam de aplicar as regras com julgamento, e não apenas segui-las mecanicamente. Descobrir o que está aberto à interpretação é uma “tarefa muito colaborativa”, disse ele. “E você não descobre isso por meio de um conjunto de predicados. Você não descobre isso por meio de um documento. Você descobre isso por meio de entendimento e fundamentação comuns, descoberta e negociação.”
Inteligência distribuída: o caminho para a superinteligência
A verdadeira superinteligência não virá de modelos individuais cada vez mais poderosos, mas de sistemas distribuídos.
“Enquanto construímos modelos cada vez melhores e agentes cada vez melhores, eventualmente sentimos que a verdadeira superinteligência acontecerá através de sistemas distribuídos”, disse Pandey.
A inteligência será dimensionada ao longo de dois eixos, ambos verticais, ou melhor, agentes individuais, e horizontais, ou redes mais colaborativas, de maneira muito semelhante à computação distribuída tradicional.
No entanto, disse Goodman, “não podemos avançar em direção a um futuro onde as IAs funcionem sozinhas. Temos que avançar em direção a um futuro onde haja um ecossistema integrado, um ecossistema distribuído que funde perfeitamente humanos e IA”.











