Início Tecnologia Os agentes de IA podem conversar entre si – mas ainda não...

Os agentes de IA podem conversar entre si – mas ainda não conseguem pensar juntos

20
0

Os agentes de IA podem conversar entre si agora – eles simplesmente não conseguem entender o que o outro está tentando fazer. Esse é o problema que o Outshift da Cisco está tentando resolver com uma nova abordagem arquitetônica chamada Web da Cognição.

A lacuna é prática: protocolos como MCP e A2A permitem que os agentes troquem mensagens e identifiquem ferramentas, mas não compartilham intenção ou contexto. Sem isso, os sistemas multiagentes queimam ciclos de coordenação e não conseguem combinar o que aprendem.

“O resultado closing é que podemos enviar mensagens, mas os agentes não se entendem, portanto não há base, negociação, coordenação ou intenção comum”, disse Vijoy Pandey, gerente geral e vice-presidente sênior da Outshift, ao VentureBeat.

O impacto prático:

Considere um paciente agendando uma consulta especializada. Somente com o MCP, um agente de avaliação de sintomas passa um código de diagnóstico para um agente de agendamento, que encontra consultas disponíveis. Um agente de seguros verifica a cobertura. Um agente de farmácia verifica a disponibilidade de medicamentos.

Cada agente cumpre sua tarefa, mas nenhum deles raciocina em conjunto sobre as necessidades do paciente. O agente farmacêutico pode recomendar um medicamento que entre em conflito com o histórico do paciente – informação que o agente sintomático possui, mas não repassou porque “potenciais interações medicamentosas” não estavam em seu escopo. O agente agendador marca a consulta disponível mais próxima sem saber que o agente de seguros encontrou melhor cobertura em uma instalação diferente.

Eles estão conectados, mas não alinhados com o objetivo: encontrar o atendimento certo para a situação específica deste paciente.

Os protocolos atuais cuidam da mecânica de comunicação dos agentes – MCP, A2A e AGNTCY da Outshift, que doou à Linux Basis, permitem que os agentes descubram ferramentas e troquem mensagens. Mas estes operam no que Pandey chama de “camada de conectividade e identificação”. Eles lidam com sintaxe, não com semântica.

A peça que falta é o contexto e a intenção compartilhados. Um agente que conclui uma tarefa sabe o que está fazendo e por quê, mas esse raciocínio não é transmitido quando ele é transferido para outro agente. Cada agente interpreta as metas de forma independente, o que significa que a coordenação requer esclarecimento constante e os insights aprendidos permanecem isolados.

Para que os agentes passem da comunicação para a colaboração, eles precisam de partilhar três coisas, de acordo com a Outshift: reconhecimento de padrões em conjuntos de dados, relações causais entre ações e estados de objetivos explícitos.

“Sem intenção compartilhada e contexto compartilhado, os agentes de IA permanecem semanticamente isolados. Eles são capazes individualmente, mas os objetivos são interpretados de maneira diferente; a coordenação queima ciclos e nada se complica. Um agente aprende algo valioso, mas o resto da organização multiagente-humana ainda começa do zero.” Outshift disse em um jornal. Outshift disse que a indústria precisa de “sistemas agentes abertos, interoperáveis ​​e de nível empresarial que colaborem semanticamente” e propõe uma nova arquitetura que chama de “Web da Cognição”, onde ambientes multiagentes funcionam dentro de um sistema compartilhado.

A arquitetura proposta introduz três camadas:

Protocolos de estado de cognição: Uma camada semântica que fica acima dos protocolos de passagem de mensagens. Os agentes compartilham não apenas dados, mas também intenções — o que estão tentando realizar e por quê. Isso permite que os agentes se alinhem quanto aos objetivos antes de agir, em vez de esclarecerem depois do fato.

Tecido Cognitivo: Infraestrutura para construir e manter contexto compartilhado. Pense nisso como uma memória de trabalho distribuída: gráficos de contexto que persistem nas interações dos agentes, com controles de política para o que é compartilhado e quem pode acessá-lo. Os projetistas de sistemas podem definir o que significa “entendimento comum” para seu caso de uso.

Motores de Cognição: Dois tipos de capacidade. Os aceleradores permitem que os agentes reúnam insights e compilem o aprendizado – a descoberta de um agente fica disponível para outros resolverem problemas relacionados. As proteções impõem limites de conformidade para que o raciocínio compartilhado não viole restrições regulatórias ou políticas.

Outshift posicionou a estrutura como um apelo à ação, e não como um produto acabado. A empresa está trabalhando na implementação, mas enfatizou que a colaboração do agente semântico exigirá coordenação em todo o setor – assim como os primeiros protocolos da Web precisavam de adesão para se tornarem padrões. Outshift está escrevendo o código, publicando as especificações e divulgando pesquisas sobre a Web da Cognição. Espera ter uma demonstração dos protocolos em breve. Noah Goodman, cofundador da empresa de IA de fronteira People& e professor de ciência da computação em Stanford, disse durante o evento AI Impression da VentureBeat, realizado em São Francisco, que a inovação acontece quando “outros humanos descobrem em quais humanos prestar atenção”. A mesma dinâmica se aplica aos sistemas de agentes: à medida que os agentes individuais aprendem, o valor se multiplica quando outros agentes conseguem identificar e aproveitar esse conhecimento. A questão prática para as equipes que implantam sistemas multiagentes agora: seus agentes estão apenas conectados ou estão realmente trabalhando com o mesmo objetivo?

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui