O padrão de código aberto da Anthropic, o Mannequin Context Protocol (MCP), lançado no ultimate de 2024, permite aos usuários conectar modelos de IA e os agentes sobre eles a ferramentas externas em um formato estruturado e confiável. É o mecanismo por trás do sucesso de programação de agentes de IA da Anthropic, Claude Code, permitindo que ele acesse inúmeras funções, como navegação na net e criação de arquivos, imediatamente quando solicitado.
Mas havia um problema: Claude Code normalmente tinha que “ler” o handbook de instruções de cada ferramenta disponível, independentemente de ser necessária para a tarefa imediata, usando o contexto disponível que, de outra forma, poderia ser preenchido com mais informações das solicitações do usuário ou das respostas do agente.
Pelo menos até ontem à noite. A equipe do Claude Code lançou uma atualização que altera fundamentalmente esta equação. Chamado de MCP Instrument Search, o recurso introduz “carregamento lento” para ferramentas de IA, permitindo que os agentes busquem definições de ferramentas dinamicamente apenas quando necessário.
É uma mudança que transfer os agentes de IA de uma arquitectura de força bruta para algo semelhante à moderna engenharia de software program – e de acordo com dados iniciais, resolve eficazmente o problema do “inchaço” que ameaçava sufocar o ecossistema.
O ‘imposto inicial’ sobre agentes
Para compreender o significado da Pesquisa de Ferramentas, é preciso compreender o atrito do sistema anterior. O Mannequin Context Protocol (MCP), lançado em 2024 pela Anthropic como um padrão de código aberto, foi projetado para ser um padrão common para conectar modelos de IA a fontes de dados e ferramentas – tudo, desde repositórios GitHub até sistemas de arquivos locais.
No entanto, à medida que o ecossistema crescia, também crescia o “imposto inicial”.
Thariq Shihipar, membro da equipe técnica da Anthropic, destacou a dimensão do problema no anúncio.
“Descobrimos que os servidores MCP podem ter mais de 50 ferramentas”, escreveu Shihipar. “Os usuários estavam documentando configurações com mais de 7 servidores consumindo mais de 67 mil tokens.”
Em termos práticos, isso significava que um desenvolvedor que usasse um conjunto robusto de ferramentas poderia sacrificar 33% ou mais do limite de sua janela de contexto disponível de 200.000 tokens antes mesmo de digitar um único caractere de um immediate, como O autor do boletim informativo sobre IA, Aakash Gupta, apontou em uma postagem no X.
O modelo estava efetivamente “lendo” centenas de páginas de documentação técnica em busca de ferramentas que talvez nunca usasse durante aquela sessão.
A análise da comunidade forneceu exemplos ainda mais nítidos.
Gupta observou ainda que um único servidor Docker MCP poderia consumir 125.000 tokens apenas para definir suas 135 ferramentas.
“A velha restrição forçou uma troca brutal”, escreveu ele. “Limite seus servidores MCP a 2 a 3 ferramentas principais ou aceite que metade do seu orçamento de contexto desapareça antes de você começar a trabalhar.”
Como funciona a pesquisa de ferramentas
A solução lançada pela Anthropic – que Shihipar chamou de “um dos nossos recursos mais solicitados no GitHub” — é elegante em sua restrição. Em vez de pré-carregar todas as definições, o Claude Code agora monitora o uso do contexto.
De acordo com as notas de lançamento, o sistema detecta automaticamente quando as descrições das ferramentas consumiriam mais de 10% do contexto disponível.
Quando esse limite é ultrapassado, o sistema muda de estratégia. Em vez de despejar a documentação bruta no immediate, ele carrega um índice de pesquisa leve.
Quando o usuário solicita uma ação específica – digamos, “implantar este contêiner” – Claude Code não verifica uma lista enorme e pré-carregada de 200 comandos. Em vez disso, ele consulta o índice, encontra a definição de ferramenta relevante e coloca apenas essa ferramenta específica no contexto.
“O Instrument Search inverte a arquitetura”, analisou Gupta. “A economia de tokens é dramática: de aproximadamente 134 mil a aproximadamente 5 mil nos testes internos da Anthropic. Isso representa uma redução de 85%, mantendo o acesso complete à ferramenta.”
Para desenvolvedores que mantêm servidores MCP, isso muda a estratégia de otimização.
Shihipar observou que o campo “instruções do servidor” na definição do MCP – anteriormente um “bom ter” – agora é crítico. Ele atua como os metadados que ajudam Claude a “saber quando procurar suas ferramentas, semelhantes às habilidades”.
‘Carregamento lento’ e ganhos de precisão
Embora a economia de tokens seja a métrica principal – economizar dinheiro e memória é sempre common – o efeito secundário desta atualização pode ser mais importante: foco.
LLMs são notoriamente sensíveis à “distração”. Quando a janela de contexto de um modelo está repleta de milhares de linhas de definições de ferramentas irrelevantes, sua capacidade de raciocinar diminui. Isso cria um problema de “agulha em um palheiro”, onde o modelo se esforça para diferenciar entre comandos semelhantes, como `notification-send-user` versus `notification-send-channel`.
Boris Cherny, chefe do Claude Code, enfatizou isso em sua reação ao lançamento no X: “Cada usuário do Claude Code obtém muito mais contexto, melhor acompanhamento de instruções e a capacidade de conectar ainda mais ferramentas.”
Os dados comprovam isso. Os benchmarks internos compartilhados pela comunidade indicam que a ativação do Instrument Search melhorou a precisão do modelo Opus 4 nas avaliações do MCP de 49% para 74%.
Para o Opus 4.5 mais recente, a precisão saltou de 79,5% para 88,1%.
Ao remover o ruído de centenas de ferramentas não utilizadas, o modelo pode dedicar seus mecanismos de “atenção” à consulta actual do usuário e às ferramentas ativas relevantes.
Amadurecendo a pilha
Esta atualização sinaliza um amadurecimento na forma como tratamos a infraestrutura de IA. Nos primórdios de qualquer paradigma de software program, a força bruta é comum. Mas à medida que os sistemas aumentam, a eficiência torna-se o principal desafio de engenharia.
Aakash Gupta traçou um paralelo com a evolução de Ambientes de Desenvolvimento Integrados (IDEs) como VSCode ou JetBrains. “O gargalo não eram ‘muitas ferramentas’.
Ele estava carregando definições de ferramentas, como importações estáticas da period 2020, em vez do carregamento lento da period 2024”, escreveu ele. “O VSCode não carrega todas as extensões na inicialização. JetBrains não injeta todos os documentos de plugins na memória.”
Ao adotar o “carregamento lento” – uma prática recomendada padrão no desenvolvimento net e de software program – a Anthropic está reconhecendo que os agentes de IA não são mais apenas novidades; são plataformas de software program complexas que exigem disciplina arquitetônica.
Implicações para o ecossistema
Para o usuário ultimate, esta atualização é perfeita: Claude Code simplesmente parece “mais inteligente” e retém mais memória da conversa. Mas para o ecossistema de desenvolvedores, isso abre as comportas.
Anteriormente, havia um “limite suave” sobre a capacidade de um agente. Os desenvolvedores tiveram que selecionar cuidadosamente seus conjuntos de ferramentas para evitar lobotomizar o modelo com contexto excessivo. Com o Instrument Search, esse limite é efetivamente removido. Teoricamente, um agente pode ter acesso a milhares de ferramentas – conectores de banco de dados, scripts de implantação em nuvem, wrappers de API, manipuladores de arquivos locais – sem pagar nenhuma multa até que essas ferramentas sejam realmente tocadas.
Transforma a “economia de contexto” de um modelo de escassez num modelo de acesso. Como Gupta resumiu: “Eles não estão apenas otimizando o uso do contexto. Eles estão mudando o que ‘agentes ricos em ferramentas’ podem significar”.
A atualização será lançada imediatamente para usuários do Claude Code. Para desenvolvedores que criam clientes MCP, a Anthropic recomenda implementar o `ToolSearchTool` para suportar esse carregamento dinâmico, garantindo que, à medida que o futuro agente chegar, ele não fique sem memória antes mesmo de dizer olá.











