Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- Goose atua como o agente que planeja, itera e aplica mudanças.
- Ollama é o tempo de execução native que hospeda o modelo.
- Qwen3-coder é o LLM focado em codificação que gera resultados.
Se você programa há vários anos, já passou por vários ciclos de hype. Quer se trate de um novo ambiente de desenvolvimento, uma nova linguagem, um novo plugin ou algum novo serviço on-line com uma API tão poderosa que economiza tempo, é tudo “revolucionário” e “mudador de mundo”, pelo menos de acordo com os representantes de relações públicas que anunciam a grande novidade.
E há também a codificação de IA agente. Quando uma ferramenta pode ajudá-lo a realizar quatro anos de desenvolvimento de produto em quatro dias, o impacto muda o mundo. Embora a codificação vibratória tenha seus detratores (por um bom motivo), os agentes de codificação de IA como o Codex da OpenAI e o Claude Code são realmente revolucionários. Eles estão transformando radicalmente a indústria de software program.
Além disso: experimentei uma alternativa ao Claude Code que é native, de código aberto e totalmente gratuita – como funciona
Em meus testes, determinei que você pode realizar algumas horas de codificação de agente aqui e ali com os planos de US$ 20/mês das empresas de IA. Mas se você pretende dedicar dias inteiros à codificação, precisará atualizar para planos de US$ 100 ou US$ 200/mês. Caso contrário, você correrá o risco de ficar em espera até que a alocação de tokens seja redefinida.
Embora tanto a OpenAI quanto a Anthropic tenham afirmado repetidamente que respeitam a privacidade das bases de código, o fato é que ambas estão fazendo seu trabalho na infraestrutura em nuvem. Esse esforço tem um risco de segurança inerente. O uso dessas tecnologias também pode violar acordos baseados em como você gerencia seu código-fonte ou até mesmo onde seu trabalho é realizado.
Recentemente, porém, foi divulgada uma possível solução para esses desafios. Ao combinar três ferramentas separadas, pode ser possível substituir plataformas de codificação caras baseadas em nuvem por um agente de IA gratuito executado em seu computador native.
Além disso: testei ferramentas de codificação de IA gratuitas e pagas – aqui está qual delas eu realmente usaria
No meu artigo anterior, mostrei como configurar esse ambiente e fiz alguns testes básicos. Consegui confirmar que esta configuração pode executar codificação de agente (embora eu tenha apresentado apenas um problema simples e alguns desafios).
Neste artigo, apresentarei as três ferramentas (Goose, Ollama e Qwen3-coder) e explicarei como cada uma contribui para a solução geral.
Em seguida, em um artigo subsequente, tentarei usar esse sistema para construir um grande projeto, estendendo meu aplicativo Claude Coded para iPhone, Mac e Apple Watch para o iPad. Em vez de usar Claude Code para o projeto, vou ver se esses três lotes de bits podem fazer tudo no meu Mac e de graça.
Qwen3: A codificação LLM
Vamos começar com o codificador Qwen3, o modelo de linguagem grande específico para codificação. Eu escolhi Qwen por causa de Postagem de Jack Dorsey no Xdizendo “ganso + qwen3-coder = uau”, e também porque Jack Wallen da ZDNET me recomendou quando perguntei sobre modelos de codificação para obtain.
Além disso: pare de usar ChatGPT para tudo: meus modelos de IA preferidos para pesquisa, codificação e muito mais (e que evito)
Essa é uma questão que quero reforçar. Sabemos que modelos como o GPT-5.2-codex da OpenAI e o Opus-4.5 da Anthropic são ótimos em codificação, mas são baseados em nuvem e são pagos. Estamos analisando o codificador Qwen3 porque ele é gratuito e para obtain.
Vamos falar sobre o que é um modelo de linguagem grande. Pense no ChatGPT. Ao usá-lo, você pode escolher um modelo (ou, com a versão gratuita, geralmente é escolhido um modelo para você). A interface, ou chatbot, é um software program separado do modelo.
Se fôssemos usar a analogia do carro, o modelo é o motor e o chatbot é o habitáculo com volante e painel.
Qwen3-coder é uma versão especializada do Qwen3 LLM de Alibaba. É o software program que realmente escreve o código. Este modelo gera código a partir de prompts e compreende linguagens de programação, estruturas e padrões. Ele pode refatorar código (fazer alterações em todo o código), executar diffs (comparar código), criar explicações de código e corrigir código.
Além disso: o Xcode 26.3 finalmente traz codificação de agente para as ferramentas de desenvolvedor da Apple
O modelo de codificação é incapaz de gerenciar fluxos de trabalho em várias etapas. Ele não sabe quando parar de trabalhar em um problema ou quando iterar em um problema. O modelo também não tem memória de nada além do contexto atualmente em execução.
Ollama: O tempo de execução do modelo
Ollama é o tempo de execução do modelo native e a camada de serviço. Os modelos não funcionam sozinhos. Usando um banco de dados como analogia, um modelo é como o próprio banco de dados, uma coleção de informações. No caso de um modelo, é um repositório gigante de conhecimento.
Ollama é como o mecanismo de banco de dados. A principal diferença entre um banco de dados e um mecanismo de banco de dados é que um mecanismo de banco de dados insere e extrai dados do banco de dados actual. Ollama apenas extrai informações do modelo de linguagem grande, portanto é mais um runtime (um sistema que executa algo previamente construído por outro sistema) do que um mecanismo completo.
Ollama é a infraestrutura que realmente executa grandes modelos de linguagem em sua máquina e os disponibiliza para outros processos por meio de uma API native. Ele baixa, instala e gerencia LLMs locais. Ele executa processos de inferência em seu {hardware} (CPU ou GPU). Ele disponibiliza os modelos para outros processos por meio de um endpoint de API consistente. Ele também lida com troca de modelo, controle de versão e controle de recursos.
Além disso: ChatGPT Plus ainda vale seus $ 20? Eu comparei com os planos Free, Go e Professional – aqui está meu conselho
Por outro lado, Ollama não entende os objetivos do seu projeto. Não gerencia conversas ou tarefas.
Há outra coisa a ser observada. O Ollama em si não é uma ferramenta de codificação especializada. Ele só conhece a codificação se o LLM que está executando atualmente conhece a codificação.
Por aceitar chamadas de API para acesso ao LLM, o Ollama é uma espécie de servidor de IA, situado entre o LLM e a interface do chatbot.
Ganso: o gerenciador de codificação
Goose é basicamente a parte agente do quebra-cabeça, fornecendo orquestração para os outros componentes principais. É a parte que entende a intenção, gerencia tarefas e resolve o que pedir ao modelo para fazer a seguir.
Goose interpreta seus prompts de programação. Se você gosta da ideia de codificação de vibração, Goose decodifica as vibrações que você transmite e divide o trabalho em etapas relacionadas à análise, planejamento, geração de código e teste. É a parte do sistema que mantém o contexto de conversação e tarefa entre iterações.
Além disso: como criar seu primeiro aplicativo para iPhone com IA – sem necessidade de experiência em codificação
Em conjunto com o humano que o orienta, Goose resolve se uma mudança merece uma reescrita de módulo ou bloco, e se o código pode simplesmente ser modificado. Ele também lida com comandos de fluxo de trabalho como “verificar o repositório, propor alterações, aplicar diferenças”.
Goose não gera código sozinho. Ele não executa os modelos diretamente (embora fale com eles). E não sabe nada sobre sintaxe de código, a menos que o modelo que está usando ajude.
Goose é essencialmente o diretor e gerente de projeto do processo de codificação de vibração.
Um fluxo de trabalho típico
Então, vamos ver como todos os três componentes funcionam juntos para permitir a geração de código:
- O humano fornece um immediate descrevendo uma meta de programação.
- Goose interpreta esse objetivo e resolve o que fazer.
- Goose envia um immediate de codificação preciso para Ollama.
- Ollama executa o codificador Gwen3 localmente no seu computador.
- O codificador Gwen3 retorna código ou análise.
- Goose resolve se vai aplicá-lo, refiná-lo ou perguntar novamente.
Este modelo de fluxo de trabalho é o motivo pelo qual a codificação vibe parece fluida. Você pode permanecer abstrato e intuitivo enquanto o sistema traduz suas solicitações em alterações de código tangíveis.
Além disso: usei Claude Code para codificar um aplicativo Mac em 8 horas, mas deu mais trabalho do que mágica
Embora essa abordagem funcione muito bem para essas três ferramentas, outros ambientes de codificação de agente, como Claude Code ou OpenAI Codex, têm sua própria combinação de codificação LLM, tempo de execução do modelo e gerenciador de programação. Eles estão todos rodando por trás da interface front-end que os produtos de codificação apresentam aos usuários desenvolvedores.
Em termos das três ferramentas de que estamos falando aqui, essa arquitetura oferece muita flexibilidade e controle. Por exemplo, você pode trocar o LLM do codificador Gwen3 por outro modelo de codificação sem alterar o Goose. Você pode atualizar ou otimizar o Ollama sem alterar seus fluxos de trabalho. Com o tempo, Goose pode evoluir para um agente mais inteligente sem retreinar os modelos. Além disso, tudo é native, inspecionável (acho que é uma palavra) e modular.
Seu departamento de engenharia de software program em uma caixa
Esta é uma maneira divertida de pensar sobre essa abordagem. Depois de configurar o codificador Goose, Ollama e Qwen3 em sua máquina native, você efetivamente terá um departamento de engenharia de software program em uma caixa. Goose é o engenheiro sênior que orienta a sessão. Ollama é o engenheiro de infraestrutura que gerencia seu ambiente computacional. Qwen3-coder é um desenvolvedor júnior rápido e talentoso que escreve código.
E você? Você já experimentou ferramentas de codificação locais baseadas em agentes, como Goose with Ollama, e um modelo de codificação para obtain? Ou você ainda depende de serviços baseados em nuvem como Claude Code ou Codex?
A ideia de manter seu código e prompts inteiramente em sua própria máquina atrai você ou você vê compensações que tornariam essa abordagem impraticável para seu trabalho? O que você acha de misturar e combinar componentes, como trocar modelos ou tempos de execução, em vez de usar uma plataforma de codificação completa? Deixe-nos saber nos comentários abaixo.
Você pode acompanhar as atualizações diárias do meu projeto nas redes sociais. Certifique-se de se inscrever meu boletim informativo semanal de atualizaçãoe siga-me no Twitter/X em @DavidGewirtzno Fb em Facebook.com/DavidGewirtzno Instagram em Instagram.com/DavidGewirtzno Bluesky em @DavidGewirtz.come no YouTube em YouTube.com/DavidGewirtzTV.













