Início Tecnologia Experimentei um rival do Claude Code que é native, de código aberto...

Experimentei um rival do Claude Code que é native, de código aberto e totalmente gratuito – como foi

21
0

Elyse Betters Picaro/ZDNET

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • As ferramentas gratuitas de IA Goose e Qwen3-coder podem substituir um plano caro do Claude Code.
  • A configuração é simples, mas requer uma máquina native poderosa.
  • Os primeiros testes mostram-se promissores, embora os problemas permaneçam com precisão e novas tentativas.

Jack Dorsey é o fundador do Twitter (agora X), Sq. (agora Block) e Bluesky (ainda azul). Em julho, ele postou um declaração bastante enigmática sobre Xdizendo “ganso + qwen3-coder = uau”.

Além disso: deseja codificação de vibração native? Esta pilha de IA substitui Claude Code e Codex – e é grátis

Desde então, o interesse cresceu tanto no codificador Goose quanto no Qwen3. Goose, desenvolvido pela empresa Block de Dorsey, é uma estrutura de agente de código aberto, semelhante ao Claude Code. Qwen3-coder é um modelo de linguagem grande centrado em codificação semelhante ao Sonnet-4.5. Ambos são gratuitos.

Juntos, sugere a web, eles podem se combinar para criar um concorrente totalmente gratuito do Claude Code. Mas eles podem? Realmente? Eu decidi descobrir.

Além disso: usei Claude Code para codificar um aplicativo Mac em 8 horas, mas deu mais trabalho do que mágica

Este é o primeiro de três artigos que discutirão a integração do Goose (a estrutura do agente), do Ollama (um servidor LLM) e do codificador Qwen3 (o LLM).

Neste artigo, mostrarei como fazer tudo funcionar. No próximo artigo, darei a você uma compreensão mais aprofundada das funções que cada uma dessas três ferramentas desempenha no processo de codificação do agente de IA. E então, finalmente, tentarei usar essas ferramentas para construir um aplicativo para iPad completo como uma extensão dos aplicativos que venho construindo com Claude Code.

Okay, vamos começar. Estou construindo isso no meu Mac, mas você pode instalar todas as três ferramentas em sua máquina Home windows ou Linux, se preferir.

Baixando o software program

Você precisará começar baixando Goose e Ollama. Posteriormente, você fará obtain do modelo do codificador Qwen3 no Ollama:

Originalmente, baixei e instalei o Goose primeiro. Mas não consegui falar com Ollama. Você consegue adivinhar o que eu fiz de errado? Sim. Ainda não tinha baixado e configurado o Ollama.

Instalando o Ollama e o codificador Qwen3

Minha recomendação é instalar o Ollama primeiro. Como mencionei, estou usando MacOS, mas você pode usar o que preferir. Você também pode instalar uma versão de linha de comando do Ollama, mas eu prefiro a versão do aplicativo, então é isso que exploraremos:

download-ollama

Captura de tela de David Gewirtz/ZDNET

Baixe Ollama. Em seguida, clique duas vezes no instalador. Assim que o aplicativo for carregado, você verá uma interface semelhante a um bate-papo. À direita, você verá o modelo. O meu padrão period gpt-oss-20b.

Também: Gêmeos pode olhar seus e-mails e fotos para ‘ajudar’ você agora – mas você deveria permitir?

Clique nele e uma lista de modelos aparecerá. Escolhi Qwen3-coder:30b, onde 30b se refere ao número de parâmetros do modelo. Este é um modelo otimizado para codificação com cerca de 30 bilhões de parâmetros:

escolher modelo

Captura de tela de David Gewirtz/ZDNET

Observe que o modelo não fará obtain até que seja forçado a responder a um immediate. Digitei a palavra “teste” e o modelo foi baixado:

modelo de download

Captura de tela de David Gewirtz/ZDNET

Observe que este modelo tem 17 GB, portanto, certifique-se de ter espaço de armazenamento suficiente. Este requisito destaca um dos grandes benefícios de todo este projeto. Sua IA é native, rodando em sua máquina. Você não está enviando nada para a nuvem.

Além disso: testei ferramentas de codificação de IA gratuitas e pagas – aqui está qual delas eu realmente usaria

Depois de instalar o codificador Qwen3, você precisa tornar a instância do Ollama visível para outros aplicativos em seu computador. Para realizar esta etapa, selecione Configurações no menu Ollama na barra de menu:

permitir acesso

Captura de tela de David Gewirtz/ZDNET

Ative Expor Ollama à rede. Deixei o Ollama se instalar no diretório .ollama. Essa abordagem oculta o diretório, então lembre-se de que você tem um arquivo de 17 GB enterrado lá.

Finalmente, defini meu comprimento de contexto para 32K. Tenho 128 GB de RAM na minha máquina, então se começar a ficar fora de contexto, vou aumentá-la. Mas eu queria ver até que ponto essa abordagem funcionava bem com um espaço de contexto menor.

Além disso, observe que não entrei no Ollama. Você pode criar uma conta e usar alguns serviços em nuvem. Mas estamos tentando fazer isso totalmente de graça e inteiramente no computador native, por isso evito fazer login sempre que posso.

Além disso: o seu agente de IA está à altura da tarefa? 3 maneiras de determinar quando delegar

E é isso para Ollama e o codificador Qwen3. Você precisará ter o Ollama iniciado e funcionando sempre que usar o Goose, mas provavelmente não interagirá muito com ele depois disso.

Instalando Ganso

A seguir, vamos instalar o Goose. Vá em frente e execute o instalador. Tal como acontece com Ollama, existem várias implementações do Goose. Eu escolhi a versão MacOS Apple Silicon Desktop:

download-ganso

Captura de tela de David Gewirtz/ZDNET

Depois de iniciar o Goose pela primeira vez, você verá esta tela de boas-vindas. Você tem várias opções de configuração, mas como estamos optando por uma configuração totalmente gratuita, vá até a seção Outros Provedores e clique em Ir para Configurações do Provedor:

bem-vindo, ganso

Captura de tela de David Gewirtz/ZDNET

Aqui, você verá uma lista muito grande de várias ferramentas de agente e LLMs que você pode executar. Position para baixo, encontre Ollama e clique em Configurar:

provedores

Captura de tela de David Gewirtz/ZDNET

Depois de concluir essa etapa, você será solicitado a configurar o Ollama. Foi aqui que fiquei um pouco confuso porque, bobo, pensei que “Configurar Ollama” significava que eu estava na verdade configurando o Ollama. Nem tanto. O que você está fazendo (aqui e para todos os outros provedores) é configurar sua conexão, neste caso para Ollama:

ganso-ollama

Captura de tela de David Gewirtz/ZDNET

Você será solicitado a escolher um modelo. Mais uma vez, escolha qwen3-coder:30b:

modelo ganso

Captura de tela de David Gewirtz/ZDNET

Depois de escolher Ollama e qwen3-coder:30b, clique em Selecionar modelo:

selecionar modelo

Captura de tela de David Gewirtz/ZDNET

Parabéns. Agora você instalou e configurou um agente de codificação native, em execução no seu computador.

Levando Ganso para dar uma volta

Como acontece com quase qualquer outro chatbot, você desejará digitar um immediate na área de immediate. Mas primeiro, não é uma má ideia informar ao Goose o diretório que você usará. Para meu teste inicial, configurei o Goose para trabalhar em uma pasta temporária. Você especifica isso em (1) tocando no diretório já mostrado:

teste1

Captura de tela de David Gewirtz/ZDNET

Observe também que o modelo que você está executando está indicado em (2). Você pode configurar o Goose para executar vários modelos, mas estamos trabalhando apenas com este por enquanto.

Como teste, usei meu desafio de teste padrão – construir um plugin simples para WordPress. Em sua primeira execução, Goose/Qwen3 falhou. Gerou um plugin, mas não funcionou:

teste2

Captura de tela de David Gewirtz/ZDNET

Nas minhas segunda e terceira tentativas, depois de explicar o que não funcionou para Goose/Qwen3, ele falhou e falhou novamente.

Além disso: a verdadeira IA agente ainda está a anos de distância – veja por que e como chegamos lá

Na terceira tentativa, ele executou a randomização, mas não seguiu completamente as instruções, o que anulou todo o propósito do plugin unique:

teste3

Captura de tela de David Gewirtz/ZDNET

Foram necessárias cinco rodadas para que Goose acertasse e ficou muito, muito satisfeito consigo mesmo com o quão certo esperava estar:

teste4

Captura de tela de David Gewirtz/ZDNET

Primeiras impressões

Então, o que eu penso sobre essa abordagem? Fiquei desapontado porque Goose precisou de cinco tentativas para fazer meu pequeno teste funcionar. Quando testei vários chatbots gratuitos com esta tarefa, todos, exceto Grok e um pré-Gemini 3 Gemini, acertaram meu pequeno teste na primeira tentativa.

Além disso: como eu testo a capacidade de codificação de um chatbot de IA – e você também pode

Mas uma grande diferença entre a codificação do chatbot e a codificação de agente é que ferramentas de codificação de agente, como Claude Code e Goose, funcionam no código-fonte actual. Portanto, correções repetidas melhoram a base de código actual.

Quando meu colega Tiernan Ray experimentou o Ollama em seu Mac M1 de 16 GB, ele descobriu que o desempenho period insuportável. Mas estou executando esta configuração em um M4 Max Mac Studio com 128 GB de RAM. Eu até tinha Chrome, Fusion, Closing Lower, VS Code, Xcode, Wispr Circulate e Photoshop abertos ao mesmo tempo.

Até agora, executei apenas um teste de programação bastante simples, mas descobri que o desempenho geral é muito bom. Não vi uma diferença tangível no retorno dos prompts entre a instância native executando o Goose no meu Mac Studio e produtos híbridos locais/em nuvem, como Claude Code e OpenAI Codex, que usam as enormes infraestruturas das empresas de IA.

Além disso: 4 novas funções liderarão a revolução da IA ​​agente – aqui está o que elas exigem

Mas estas ainda são as primeiras impressões. Poderei dizer melhor se acho que esta solução gratuita pode substituir as alternativas caras, como o plano Max de US$ 100/mês de Claude Code ou o plano Professional de US$ 200/mês da OpenAI, uma vez que eu execute um grande projeto através dele. Essa análise ainda está por vir, então fique ligado.

Você já tentou executar localmente um LLM focado em codificação com ferramentas como Goose, Ollama ou Qwen? Como foi a configuração para você e em qual {hardware} você a está executando? Se você usou opções de nuvem como Claude ou OpenAI Codex, como o desempenho native e a qualidade de saída se comparam? Deixe-nos saber nos comentários abaixo.


Você pode acompanhar as atualizações diárias do meu projeto nas redes sociais. Certifique-se de se inscrever meu boletim informativo semanal de atualizaçãoe siga-me no Twitter/X em @DavidGewirtzno Fb em Facebook.com/DavidGewirtzno Instagram em Instagram.com/DavidGewirtzno Bluesky em @DavidGewirtz.come no YouTube em YouTube.com/DavidGewirtzTV.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui