Início Tecnologia Este aplicativo MacOS gratuito é o segredo para aproveitar ao máximo seus...

Este aplicativo MacOS gratuito é o segredo para aproveitar ao máximo seus modelos locais de IA

9
0

Captura de tela de Jack Wallen/ZDNET

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • Reins é uma interface GUI gratuita para Ollama.
  • O sistema só funciona em MacOS.
  • Reins inclui recursos não encontrados em outras GUIs.

Quando preciso usar IA, minha primeira escolha é sempre native por questões de privacidade, e na maioria das vezes é by way of Ollama. Posso usar as ferramentas de linha de comando do Ollama perfeitamente, mas certos recursos em várias GUIs aprimoram e simplificam a experiência.

Embora Ollama tenha sua própria GUI bem projetada e fácil de usar, é um pouco básico para mim.

Além disso: 5 razões pelas quais uso IA native em minha área de trabalho – em vez de ChatGPT, Gemini ou Claude

Outra opção é o Reins, que capacita pesquisadores e amadores com controle complete sobre modelos auto-hospedados.

Reins tem muitos recursos, como acesso remoto a modelos, prompts de sistema por chat, edição e regeneração de prompts, integração de imagens, configuração avançada, seleção de modelo, criação de modelo a partir de prompts, gerenciamento de vários chats, troca dinâmica de modelos e streaming de mensagens em tempo actual.

Além disso: experimentei um rival do Claude Code que é native, de código aberto e totalmente gratuito – como foi

Todos esses recursos se unem para fazer de Reins minha nova opção para trabalhar com LLMs locais de Ollama.

Vamos instalar o Reins e ver como funcionam alguns desses recursos mais importantes.

Instalando Rédeas

O que você precisa: Reins é um aplicativo gratuito somente para MacOS, portanto, se você estiver usando Linux ou Home windows, terá que recorrer a outra GUI (como o aplicativo oficial Ollama ou Alpaca).

Para usar o Reins, você precisará do Ollama instalado (baixe o instalador do site oficial) e, claro, um Mac. Você pode conectar o Reins a uma instância do Ollama em outra máquina em sua LAN ou pode instalar o Ollama na máquina que hospedará o Reins.

Reins está na Apple App Retailer, então abra esse aplicativo no Launchpad ou no Dock.

Mostrar mais

Pesquise Rédeas na App Retailer.

Mostrar mais

Para instalar o Reins, clique no botão Obter e permita que a instalação comece e termine.

Mostrar mais

É isso para a instalação.

Usando Rédeas

Rédeas é muito simples de usar. Depois de abrir o aplicativo, você verá que ele está conectado ao Ollama.

Além disso: parei de usar ChatGPT para tudo: esses modelos de IA superam em pesquisa, codificação e muito mais

Ao digitar seu immediate inicial, você será solicitado a selecionar um modelo. Depois de selecionar seu modelo, você pode enviar sua solicitação e Reins fará o seu trabalho:

Rédeas.

A GUI do Reins é muito fácil de usar.

Captura de tela de Jack Wallen/ZDNET

Um dos recursos mais legais do Reins é que você pode trocar de modelo rapidamente. Para fazer isso, clique no nome do modelo na parte superior (sob o título Reins) e selecione o modelo que deseja usar.

Enquanto Ollama está trabalhando em um immediate, você pode selecionar um immediate anterior, trocar de modelo e continuar trabalhando. Você não obtém esse tipo de flexibilidade com algumas GUIs do Ollama:

Menu suspenso de opção de modelo de rédeas.

Troque de modelo rapidamente clicando no menu suspenso de nomes em Rédeas.

Captura de tela de Jack Wallen/ZDNET

Você pode até adicionar arquivos às suas consultas clicando em + diretamente à esquerda do campo de immediate. A única ressalva desse recurso é que ele é limitado ao add de imagens.

Além disso: 5 maneiras de parar de testar IA e começar a escalá-la com responsabilidade em 2026

Se você tiver um documento de texto, poderá copiá-lo e colá-lo no campo de consulta. Ao fazer isso, Reins usará qualquer modelo que você tenha selecionado para resumir o materials.

Um recurso útil (que não funciona… ainda)

Há um recurso que me deixou animado para usar o Reins, embora atualmente esteja falhando.

Digamos que passei um bom tempo em um único immediate, fazendo perguntas complementares, adicionando pesquisas e imagens e muito mais. Posso passar uma semana trabalhando nessa pesquisa. Quando sinto que a pesquisa está concluída, posso salvá-la como modelo para consultas posteriores.

Para salvar um immediate como modelo, selecione-o na barra lateral e clique no ícone Configurações no canto superior direito da janela Reins. No pop-up resultante, clique em “Salvar como novo modelo”, que abrirá um novo pop-up que requer um nome:

Pop-up de configurações de bate-papo do Reins.

Esperançosamente, o recurso Salvar como modelo funcionará em versões futuras.

Captura de tela de Jack Wallen/ZDNET

Tenho tentado fazer esse recurso funcionar, mas ele continua falhando.

Até perguntei a Reins, brincando, por que o recurso não estava funcionando e, para minha surpresa, ele ofereceu alguns conselhos úteis. Infelizmente, as sugestões não funcionaram.

Além disso: 5 maneiras pelas quais regras e regulamentos podem ajudar a orientar sua inovação em IA

Entrei em contato com o desenvolvedor para ver se havia uma solução. Ele respondeu: “Vou investigar isso e também vou lançar uma nova atualização para melhorar os erros e mostrar a mensagem de erro exata em breve. Avisarei você quando eu corrigir o problema.”

Isso é reconfortante. Apesar desse recurso (temporariamente) quebrado, descobri que Reins é um excelente frontend para Ollama. Embora também seja fã da versão terminal do Ollama, gosto de uma boa GUI. Se você usa MacOS, sugiro que experimente este.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui