Laboratório de IA baseado em São Francisco Arcee fez sucesso no ano passado por ser uma das únicas empresas dos EUA a treinar grandes modelos de linguagem (LLMs) do zero e liberá-los sob licenças de código aberto ou parcialmente aberto ao público – permitindo que desenvolvedores, empreendedores individuais e até mesmo empresas de médio a grande porte usem os poderosos modelos de IA gratuitamente e os personalizem à vontade.
Agora Arcee está de volta esta semana com o lançamento de seu maior e mais performático modelo de linguagem aberta até o momento: Trindade Grandeuma mistura de especialistas (MoE) de 400 bilhões de parâmetros, disponível agora em versão prévia,
Juntamente com o lançamento principal, Arcee está enviando um modelo de checkpoint “bruto”, Trinity-Large-TrueBaseque permite aos pesquisadores estudar o que um MoE esparso de 400B aprende apenas com os dados brutos, antes que o ajuste e o reforço das instruções sejam aplicados.
Ao fornecer uma lista limpa na marca de 10 trilhões de tokens, Arcee permite que os construtores de IA em setores altamente regulamentados realizem auditorias autênticas e conduzam seus próprios alinhamentos especializados sem herdar os preconceitos da “caixa preta” ou as peculiaridades de formatação de um modelo de bate-papo de uso geral. Esta transparência permite uma compreensão mais profunda da distinção entre as capacidades de raciocínio intrínsecas de um modelo e os comportamentos úteis identificados durante os estágios finais do pós-treinamento.
Este lançamento chega no momento em que poderosas alternativas chinesas de LLM de código aberto de empresas como Alibaba (Qwen), z.AI (Zhipu), DeepSeek, Moonshot e Baidu inundaram o mercado, liderando efetivamente a categoria com arquiteturas de alta eficiência.
Trinity Giant também surge depois que Meta se retirou notavelmente do cenário fronteiriço de código aberto. Após a estreia do Llama 4 em abril de 2025, que teve uma recepção mista, e o ex-pesquisador da Meta AI Yann LeCun mais tarde admitiu que a empresa usou várias versões especializadas do modelo para inflar pontuações em benchmarks de terceiros.
Em meio a esse vácuo doméstico, apenas OpenAI – com sua família gpt-oss lançada no verão de 2025 – e Arcee estão atualmente carregando o manto de novos modelos de código aberto fabricados nos EUA e treinados inteiramente do zero.
Por mais esparsos que sejam
Trinity Giant é notável pela extrema dispersão de seu mecanismo de atenção. Uma arquitetura MoE, “esparsidade” refere-se à capacidade do modelo de ativar seletivamente apenas uma pequena fração de seus parâmetros totais para qualquer tarefa.
Embora o Trinity Giant abrigue 400B de parâmetros totais, apenas 1,56% (parâmetros de 13B) estão ativos em um determinado momento.
Essa escolha arquitetônica é significativa porque permite que o modelo possua o “conhecimento” de um sistema massivo enquanto mantém a velocidade de inferência e a eficiência operacional de um sistema muito menor – alcançando um desempenho aproximadamente 2–3x mais rápido do que seus pares no mesmo {hardware}.
Soberania e a filosofia “TrueBase”
A contribuição mais significativa deste lançamento para a comunidade de pesquisa é Trinity-Giant-TrueBase – um ponto de verificação bruto de 10 trilhões de tokens.
Ao contrário de quase todas as outras versões “abertas”, que chegam depois de serem “distorcidas” pelo ajuste de instruções e pelo aprendizado por reforço, o TrueBase oferece uma visão rara e intocada da inteligência elementary.
Na pressa de tornar os modelos úteis, a maioria dos laboratórios aplica o ajuste fino supervisionado (SFT) e o aprendizado por reforço com suggestions humano (RLHF) antes que os pesos sejam liberados. Embora isto torne o modelo um melhor conversador, pode mascarar distribuições de conhecimento subjacentes.
TrueBase fornece um “modelo base OG” que ainda não passou pelos recozimentos da taxa de aprendizagem ou pelo pré-treinamento das fases dois e três, onde os dados de instrução são normalmente introduzidos.
Para pesquisadores e empresas em setores altamente regulamentados, a partir do TrueBase permite auditorias autênticas e alinhamento personalizado. Como Lucas Atkins, CTO da Arcee, observou em uma videochamada com VentureBeat: “É interessante que o próprio checkpoint já seja um dos modelos básicos com melhor desempenho do mundo”.
Tecnologia: engenharia através de restrições
A criação do Trinity Giant não foi um produto de recursos infinitos, mas sim o que Atkins chama de “engenharia através da restrição”.
Treinado por aproximadamente US$ 20 milhões em apenas 33 dias, o modelo representa uma aula magistral em eficiência de capital.
Arcee, uma equipe de apenas 30 pessoas, operava com um capital complete de pouco menos de US$ 50 milhões, fazendo com que o treinamento de US$ 20 milhões fosse uma aposta de “apoio à empresa”.
“Sempre acreditei que ter restrições, seja financeiramente, pessoal ou qualquer outra coisa, é extremamente importante para a criatividade”, explicou Atkins. “Quando você tem apenas um orçamento ilimitado, você inerentemente não precisa planejar uma saída para problemas complexos”.
Arquitetura: 4 de 256 Sparsity e SMEBU
Trinity Giant utiliza uma arquitetura MoE esparsa de 4 de 256, o que significa que ativa apenas 4 de seus 256 especialistas para cada token.
Este alto grau de dispersão – um dos mais altos já treinados com sucesso – criou desafios significativos de estabilidade durante o pré-treinamento.
Para resolver isso, Arcee desenvolveu Gentle-clamped Momentum Skilled Bias Updates (SMEBU). Este mecanismo garante que os especialistas sejam especializados e distribuídos uniformemente em um corpus geral da net, evitando que alguns especialistas se tornem “vencedores”, enquanto outros permaneçam como “peso morto” não treinados.
A velocidade do treinamento foi facilitada pelo acesso antecipado da Arcee às GPUs Nvidia B300 (Blackwell). Esses chips forneceram aproximadamente o dobro da velocidade da geração anterior do Hopper e aumentos significativos de memória.
“O pré-treinamento durou 33 dias”, observou Atkins. “Poderíamos ter feito isso no Hopper e provavelmente levaria de dois a três meses. E a essa altura, estamos em uma geração completamente nova de modelos”.
Em parceria com DatologiaAIArcee utilizou mais de 8 trilhões de tokens de dados sintéticos. No entanto, esta não period uma típica “imitação” de dados sintéticos, onde um modelo menor aprende a falar como um modelo maior.
Em vez disso, a intenção period pegar texto bruto da net – como blogs ou artigos da Wikipédia – e reescrevê-lo sinteticamente para condensar as informações em um número menor de tokens totais. Esse processo ajudou o modelo a aprender a raciocinar sobre as informações, em vez de apenas memorizar sequências de tokens exatas.
O projeto arquitetônico também incorpora camadas alternadas de atenção de janelas deslizantes locais e globais em uma proporção de 3:1. Esta abordagem híbrida permite que o modelo seja altamente eficiente em cenários de longo contexto. Embora treinado para um comprimento de sequência de 256k, o Trinity Giant oferece suporte nativo ao contexto de 512k, e as avaliações sugerem que ele permanece com desempenho mesmo no horizonte de 1 milhão de tokens.
Comparação técnica: Trinity Giant vs. gpt-oss-120b
Como alternativa americana, o Trinity Giant pode ser comparado ao gpt-oss-120b da OpenAI.
Embora ambos os modelos utilizem arquiteturas esparsas para alcançar desempenho de nível fronteiriço sob licenças permissivas, eles desempenham funções operacionais diferentes.
Embora o gpt-oss-120b atualmente tenha uma vantagem em raciocínio específico e benchmarks matemáticos, o Trinity Giant oferece uma vantagem significativa em capacidade de contexto e profundidade de parâmetros brutos para fluxos de trabalho de agente complexos e de várias etapas.
Soberania: preenchendo o vácuo
O lançamento do Trinity Giant é tanto uma declaração geopolítica quanto técnica. O CEO Mark McQuade observou ao VentureBeat na mesma entrevista que o vácuo dos modelos americanos de código aberto no nível de fronteira forçou uma mudança na estratégia da Arcee.
“Houve esse tipo de mudança em que gamers baseados nos EUA ou ocidentais pararam de abrir o código-fonte desses modelos”, disse McQuade. “Estamos contando com esses modelos para entrar nas organizações e levá-los adiante… mas os laboratórios chineses apenas começaram… a produzir modelos de última geração e a abri-los”.
Para McQuade, isto criou uma dependência com a qual as empresas americanas se sentiam cada vez mais desconfortáveis. “Especialmente nas conversas que temos com grandes organizações, elas não conseguiram usar arquiteturas baseadas na China”, explicou ele. “Queremos ser esse campeão nos EUA. [It] na verdade não existe agora”.
Ao lançar sob a licença Apache 2.0, Arcee fornece a estrutura permissiva padrão ouro que permite às empresas “possuir” inteiramente a camada do modelo. Isso é elementary para setores como finanças e defesa, onde a utilização de um modelo hospedado por terceiros ou por um provedor de nuvem restritivo é um fracasso.
Equilibrando inteligência com utilidade
Arcee está atualmente se concentrando no “modelo de pensamento atual” para fazer a transição do Trinity Giant de um modelo de instrução geral para um modelo de raciocínio completo. A equipe está lutando para encontrar o equilíbrio entre “inteligência versus utilidade” — esforçando-se para criar um modelo que se destaque em benchmarks sem se tornar “exagerado” ou ineficiente em aplicações de produção reais.
“Nós construímos o Trinity para que você possa possuí-lo”, afirma a equipe, sinalizando um retorno aos valores fundamentais do movimento americano de código aberto. À medida que a indústria avança em direção a fluxos de trabalho de agentes e requisitos de contexto massivos, a Trinity Giant se posiciona não como um “invólucro”, mas como uma camada de infraestrutura soberana que os desenvolvedores podem finalmente controlar.












