A inteligência artificial ocupa posição central na edição de 2026 da Consumer Electronics Show (CES), em Las Vegas. A americana Nvidia aproveitou o evento para lançar a plataforma NVIDIA Rubin, composta por seis novos chips desenvolvidos para aplicações de IA.
A companhia afirma que a arquitetura já está em plena produção e que os primeiros produtos baseados na plataforma chegarão ao mercado por meio de parceiros no segundo semestre de 2026.
A plataforma incorpora cinco inovações tecnológicas, incluindo novas gerações da interconexão NVIDIA NVLink, o Transformer Engine, recursos de Confidential Computing e o RAS Engine, além da CPU NVIDIA Vera. Segundo a empresa, o conjunto foi projetado para acelerar aplicações de IA agêntica, raciocínio avançado e inferência de modelos de mistura de especialistas (MoE) em larga escala.
De acordo com a Nvidia, a plataforma Rubin pode reduzir o custo por token em até dez vezes em relação à arquitetura NVIDIA Blackwell. No treinamento de modelos MoE, a empresa afirma que a nova geração exige quatro vezes menos GPUs, o que tende a reduzir custos operacionais e facilitar a adoção de soluções de IA em escala.

Entre os primeiros provedores de nuvem a oferecer instâncias baseadas em Vera Rubin, a partir de 2026, estão AWS, Google Cloud, Microsoft e Oracle Cloud Infrastructure (OCI), além de parceiros como CoreWeave, Lambda, Nebius e Nscale. A Microsoft, por sua vez, planeja implantar sistemas NVIDIA Vera Rubin NVL72 em escala de rack em seus data centers de IA de próxima geração, incluindo as futuras superfábricas de IA em Fairwater.
“Rubin chega exatamente no momento certo, já que a demanda por computação de IA, tanto para treinamento quanto para inferência, está disparando”, diz Jensen Huang, fundador e CEO da Nvidia. “Com nosso ritmo anual de lançamento de uma nova geração de supercomputadores de IA — e o design colaborativo extremo em seis novos chips — Rubin dá um salto gigantesco rumo à próxima fronteira da IA.”
A empresa também destacou que a arquitetura introduz a plataforma NVIDIA Inference Context Memory Storage, descrita como uma nova classe de infraestrutura de armazenamento nativa para IA, voltada à escalabilidade do contexto de inferência em gigaescala.
O nome Rubin é uma homenagem à astrônoma americana Vera Florence Cooper Rubin, cujas descobertas contribuíram para a compreensão moderna do universo.
“ChatGPT da IA física”
Ainda durante a CES 2026, a Nvidia apresentou a família NVIDIA Alpamayo, composta por modelos abertos de IA, ferramentas de simulação e conjuntos de dados voltados ao desenvolvimento de veículos autônomos. Segundo a empresa, a iniciativa busca acelerar a criação de sistemas mais seguros e baseados em raciocínio.
A família Alpamayo introduz modelos do tipo VLA (vision language action), com mecanismos de raciocínio baseados em chain-of-thought, que permitem aos veículos analisar cenários passo a passo antes de tomar decisões. De acordo com a Nvidia, essa abordagem amplia a capacidade de lidar com situações novas ou raras e melhora a explicabilidade das decisões, considerada um fator relevante para segurança e confiança em sistemas autônomos.
A companhia posiciona o Alpamayo como base tecnológica para autonomia de nível 4, na qual o veículo consegue operar sozinho na maior parte das situações.
“O momento ChatGPT da IA física chegou — quando as máquinas começam a compreender, raciocinar e agir no mundo real”, afirma Jensen Huang.
Segundo o executivo, aplicações como robotáxis estão entre as primeiras a se beneficiar da tecnologia. “O Alpamayo leva o raciocínio aos veículos autônomos, permitindo que eles analisem cenários raros, dirijam com segurança em ambientes complexos e expliquem suas decisões de condução — é a base para uma autonomia segura e escalável”, acrescenta.






