Até recentemente, a prática de construir agentes de IA period um pouco como treinar um corredor de longa distância com memória de trinta segundos.
Sim, você poderia fornecer ferramentas e instruções aos seus modelos de IA, mas depois de algumas dezenas de interações – várias voltas na pista, para estender nossa analogia de corrida – ele inevitavelmente perderia o contexto e começaria a ter alucinações.
Com As últimas atualizações do OpenAI à sua API Responses – a interface de programação de aplicativos que permite aos desenvolvedores da plataforma OpenAI acessar múltiplas ferramentas de agente, como pesquisa na net e pesquisa de arquivos com uma única chamada – a empresa está sinalizando que a period do agente limitado está acabando.
As atualizações anunciadas hoje incluem compactação do lado do servidor, contêineres de shell hospedados e um novo “Habilidades“padrão para agentes.
Com essas três atualizações principais, a OpenAI está efetivamente entregando aos agentes uma mesa permanente, um terminal e uma memória que não desaparece e deve ajudar os agentes a evoluir ainda mais para trabalhadores digitais confiáveis e de longo prazo.
Tecnologia: superando a ‘amnésia de contexto’
O obstáculo técnico mais significativo para os agentes autônomos sempre foi a “confusão” de tarefas de longa duração. Cada vez que um agente chama uma ferramenta ou executa um script, o histórico da conversa aumenta.
Eventualmente, o modelo atinge seu limite de token e o desenvolvedor é forçado a truncar o histórico – muitas vezes excluindo o próprio “raciocínio” que o agente precisa para concluir o trabalho.
A resposta da OpenAI é a compactação do lado do servidor. Ao contrário do simples truncamento, a compactação permite que os agentes funcionem por horas ou até dias.
Dados iniciais da plataforma de comércio eletrônico Baleia Tripla sugere este é um avanço na estabilidade: seu agente, Moby, navegou com sucesso em uma sessão envolvendo 5 milhões de tokens e 150 chamadas de ferramentas sem queda na precisão.
Em termos práticos, isto significa que o modelo pode “resumir” as suas próprias ações passadas num estado comprimido, mantendo vivo o contexto essencial enquanto elimina o ruído. Ele transforma o modelo de um assistente esquecido em um processo de sistema persistente.
Sandboxes de nuvem gerenciados
A introdução da ferramenta Shell transfer o OpenAI para o domínio da computação gerenciada. Os desenvolvedores agora podem optar por container_auto, que provisiona um ambiente Debian 12 hospedado em OpenAI.
Este não é apenas um interpretador de código: ele dá a cada agente seu próprio ambiente de terminal completo pré-carregado com:
-
Ambientes de execução nativos incluindo Python 3.11, Node.js 22, Java 17, Go 1.23 e Ruby 3.1.
-
Armazenamento persistente através de
/mnt/informationpermitindo que os agentes gerem, salvem e baixem artefatos. -
Capacidades de rede que permitem que os agentes acessem a Web para instalar bibliotecas ou interagir com APIs de terceiros.
O Hosted Shell e sua persistência /mnt/information O armazenamento fornece um ambiente gerenciado onde os agentes podem realizar transformações complexas de dados usando Python ou Java sem exigir que a equipe crie e mantenha middleware ETL (Extrair, Transformar, Carregar) personalizado para cada projeto de IA.
Ao aproveitar esses contêineres hospedados, os engenheiros de dados podem implementar tarefas de processamento de dados de alto desempenho e, ao mesmo tempo, minimizar as “múltiplas responsabilidades” que acompanham o gerenciamento de infraestrutura sob medida, eliminando a sobrecarga de construção e proteção de seus próprios sandboxes. OpenAI está essencialmente dizendo: “Dê-nos as instruções; nós forneceremos o computador.”
Habilidades da OpenAI vs. Habilidades da Anthropic
Embora a OpenAI esteja correndo em direção a uma pilha de orquestração de agentes unificada, ela enfrenta um desafio filosófico significativo das habilidades de agente da Anthropic.
Ambas as empresas convergiram para uma estrutura de arquivos notavelmente semelhante – usando um SKILL.md (markdown) se manifestam com o frontmatter YAML – mas suas estratégias subjacentes revelam visões divergentes para o futuro do trabalho.
A abordagem da OpenAI prioriza um “substrato programável” otimizado para a velocidade do desenvolvedor. Ao agrupar o shell, a memória e as habilidades na API Responses, eles oferecem uma experiência “pronta para uso” para a construção rápida de agentes complexos.
Já, inicialização de pesquisa de IA corporativa Recolher relataram um salto na precisão da ferramenta de 73% para 85% usando a estrutura Expertise da OpenAI.
Em contraste, a Anthropic lançou Agent Expertise como um padrão aberto independente (agentskills.io).
Embora o sistema da OpenAI esteja totalmente integrado à sua própria infraestrutura em nuvem, as habilidades da Anthropic são projetadas para portabilidade. Uma habilidade construída para Claude pode, teoricamente, ser movida para VS Code, Cursor ou qualquer outra plataforma que adote a especificação.
Na verdade, o novo agente de IA de código aberto OpenClaw adotou exatamente isso SKILL.md empacotamento baseado em manifesto e pasta, permitindo-lhe herdar uma riqueza de conhecimento processual especializado originalmente projetado para Claude.
Essa compatibilidade arquitetônica alimentou um “increase de habilidades” impulsionado pela comunidade em plataformas como o ClawHub, que agora hospeda mais de 3.000 extensões criadas pela comunidade, que vão desde integrações domésticas inteligentes até automações complexas de fluxo de trabalho empresarial.
Essa polinização cruzada demonstra que a “Habilidade” se tornou um ativo portátil e com versão, em vez de um recurso bloqueado pelo fornecedor. Como o OpenClaw oferece suporte a vários modelos — incluindo a série GPT-5 da OpenAI e instâncias locais do Llama — os desenvolvedores agora podem escrever uma habilidade uma vez e implantá-la em um cenário heterogêneo de agentes.
Para os decisores técnicos, esta norma aberta está a transformar-se na forma preferida da indústria para externalizar e partilhar o “conhecimento agente”, ultrapassando as instruções proprietárias em direcção a uma infra-estrutura partilhada, inspecionável e interoperável.
Mas há outra distinção importante entre as “habilidades” da OpenAI e da Anthropic.
OpenAI usa compactação do lado do servidor para gerenciar o estado ativo de uma sessão de longa duração. A Anthropic utiliza Progressive Disclosure, um sistema de três níveis onde o modelo inicialmente só conhece nomes e descrições de habilidades.
Detalhes completos e scripts auxiliares só são carregados quando a tarefa os exige especificamente. Isso permite que enormes bibliotecas de habilidades – diretrizes de marca, listas de verificação legais e modelos de código – existam sem sobrecarregar a memória de trabalho do modelo.
Implicações para os tomadores de decisões técnicas empresariais
Para engenheiros focados em “implantação rápida e ajuste fino”, a combinação de compactação e habilidades do lado do servidor proporciona um enorme aumento de produtividade
Em vez de criar um gerenciamento de estado personalizado para cada execução de agente, os engenheiros podem aproveitar a compactação integrada para lidar com tarefas de várias horas.
As habilidades permitem “IP empacotado”, onde o ajuste fino específico ou o conhecimento processual especializado podem ser modularizados e reutilizados em diferentes projetos internos.
Para aqueles encarregados de mover a IA de uma “caixa de bate-papo” para um fluxo de trabalho de nível de produção – o anúncio da OpenAI marca o fim da period da “infraestrutura sob medida”.
Historicamente, orquestrar um agente exigia uma estrutura guide significativa: os desenvolvedores tinham que criar uma lógica personalizada de gerenciamento de estado para lidar com longas conversas e sandboxes seguras e efêmeras para executar código.
O desafio não é mais “Como posso dar um terminal a este agente?” mas “Quais habilidades são autorizadas para quais usuários?” e “Como auditamos os artefatos produzidos no sistema de arquivos hospedado?” A OpenAI forneceu o motor e o chassi; o trabalho do orquestrador agora é definir as regras de trânsito.
Para gerentes de operações de segurança (SecOps), fornecer um shell e acesso à rede a um modelo de IA é uma evolução de alto risco. O uso de segredos de domínio e listas de permissões de organização pela OpenAI fornece uma estratégia de defesa profunda, garantindo que os agentes possam chamar APIs sem expor credenciais brutas ao contexto do modelo.
Mas à medida que os agentes se tornam mais fáceis de implantar por meio de “habilidades”, os SecOps devem estar atentos às “habilidades maliciosas” que podem introduzir vulnerabilidades de injeção imediata ou caminhos de exfiltração de dados não autorizados.
Como as empresas devem decidir?
A OpenAI não vende mais apenas um “cérebro” (o modelo); está vendendo o “escritório” (o container), a “memória” (compactação) e o “guide de treinamento” (habilidades). Para os líderes empresariais, a escolha está se tornando clara:
-
Escolha OpenAI se precisar de um ambiente integrado e de alta velocidade para trabalho autônomo de longa duração.
-
Escolha Antrópico se sua organização exigir portabilidade independente de modelo e um padrão de ecossistema aberto.
Em última análise, os anúncios sinalizam que a IA está saindo da caixa de bate-papo e entrando na arquitetura do sistema, transformando o “espaguete imediato” em fluxos de trabalho de negócios sustentáveis, versionados e escaláveis.











