Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- A nova plataforma da Nvidia visa reduzir o custo de treinamento de LLMs.
- Ele usa seis chips de IA para reduzir os custos de tokens e os requisitos de GPU.
- As primeiras plataformas serão lançadas para parceiros no last do ano.
Os últimos anos foram estupendos para a Nvidia. Quando a IA generativa se tornou moda, a demanda pelo {hardware} da gigante da tecnologia disparou à medida que empresas e desenvolvedores lutavam por suas placas gráficas para treinar seus grandes modelos de linguagem (LLMs). Durante a CES 2026, a Nvidia realizou uma conferência de imprensa para revelar sua mais recente inovação no espaço de IA: a plataforma Rubin.
Além disso: atualizações ao vivo do CES 2026: a maior TV, óculos inteligentes, notícias sobre telefone e muito mais que vimos até agora
A Nvidia anunciou o que a tecnologia pode fazer, e é tudo bastante denso, então, para manter as coisas concisas, estou focando apenas nos destaques.
Rubin é uma plataforma de supercomputação de IA projetada para tornar possível “construir, implantar e proteger os maiores e mais avançados sistemas de IA do mundo com o menor custo”. De acordo com a Nvidiaa plataforma pode oferecer uma redução de até 10 vezes nos custos de token de inferência e requer quatro vezes menos placas gráficas para treinar modelos de mistura de especialistas (MoE) em comparação com a plataforma Blackwell mais antiga.
A maneira mais fácil de pensar na Nvidia Rubin é imaginar a Blackwell, mas em uma escala muito maior.
O objetivo do Rubin é acelerar a adoção generalizada de modelos avançados de IA, especialmente no espaço do consumidor. Um dos maiores obstáculos que impede a adoção generalizada de LLMs é o custo. À medida que os modelos se tornam maiores e mais complexos, o {hardware} e a infraestrutura necessários para treinar e dar suporte aos modelos tornam-se astronomicamente caros. Ao reduzir drasticamente os custos de tokens por meio do Rubin, a Nvidia espera tornar a implantação de IA em larga escala mais prática.
Além disso: os modelos físicos de IA da Nvidia abrem caminho para robôs de próxima geração – aqui estão as novidades
A Nvidia disse que usou uma abordagem de “codesign extremo” ao desenvolver a plataforma Rubin, criando um único supercomputador de IA composto por seis chips integrados. No centro está uma CPU Nvidia Vera, um processador com eficiência energética para fábricas de IA em grande escala, construído com 88 núcleos Olympus personalizados, compatibilidade complete com Armv9.2 e conectividade NVLink-C2C rápida para oferecer alto desempenho.
Trabalhando ao lado da CPU está a GPU Nvidia Rubin, servindo como o principal carro-chefe da plataforma. Ostentando um Rework Engine de terceira geração, é capaz de fornecer até 50 petaflops de poder computacional NVFP4. Conectando tudo está o change Nvidia NVLink 6, permitindo comunicação ultrarrápida de GPU para GPU. O ConnectX-9 SuperNIC da Nvidia lida com redes de alta velocidade, enquanto o DPU Bluefield-4 alivia parte da carga de trabalho da CPU e GPU para que eles se concentrem mais em modelos de IA.
Completando tudo está o change Ethernet Spectrum-6 da empresa para fornecer rede de última geração para knowledge facilities de IA.
Além disso: a IA mais emocionante que pode ser vestida na CES 2026 pode não ser, afinal, os óculos inteligentes
O Rubin estará disponível em múltiplas configurações, como o Nvidia Vera Rubin NVL72. Isso combina 36 CPUs Nvidia Vera, 72 GPUs Nvidia Rubin, um change Nvidia NVLink 6, vários SuperNICs Nvidia ConnectX-9 e DPUs Nvidia BlueField-4.
A julgar por todas as notícias, não acho que essas plataformas de supercomputação serão algo que uma pessoa comum possa comprar na Finest Purchase. A Nvidia disse que a primeira dessas plataformas Rubin será lançada para parceiros no segundo semestre de 2026. Entre as primeiras estarão Amazon Net Companies, Google Cloud e Microsoft. Se a aposta da Nvidia valer a pena, esses computadores poderão inaugurar uma nova period da computação de IA, onde a escala será muito mais gerenciável.











