Witold Kepinski - 17 maart 2026

NVIDIA Vera Rubin: De volgende stap in AI-infrastructuur

NVIDIA heeft het Vera Rubin-platform gepresenteerd, een nieuwe generatie AI-infrastructuur die specifiek is ontworpen voor de schaalvergroting van 'agentic AI'. Met zeven nieuwe chips die inmiddels in volledige productie zijn, zet het bedrijf in op de bouw van grootschalige 'AI-fabrieken' die alle fasen van kunstmatige intelligentie ondersteunen: van pre-training tot real-time interactie door autonome agents.

NVIDIA Vera Rubin: De volgende stap in AI-infrastructuur image

Een geïntegreerd supercomputer-ecosysteem

Het Vera Rubin-platform is niet slechts een verzameling losse componenten, maar een samenhangend systeem. De architectuur combineert de nieuwe Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU en de Spectrum-6 Ethernet-switch. Opvallend is de integratie van de onlangs verworven NVIDIA Groq 3 LPU, die specifiek is toegevoegd om de latentie bij complexe redeneertaken te minimaliseren.

"Vera Rubin is een generatiesprong," verklaarde Jensen Huang, oprichter en CEO van NVIDIA. "Zeven baanbrekende chips, vijf racks, één gigantische supercomputer. Met dit platform begint de grootste infrastructuur-uitbouw in de geschiedenis."

Strategische partnerschappen: OpenAI en Anthropic

De aankondiging wordt ondersteund door prominente spelers uit de sector. Sam Altman, CEO van OpenAI, gaf aan dat het platform essentieel is voor het draaien van krachtigere modellen op massale schaal. Ook Dario Amodei, CEO van Anthropic, benadrukte dat de toenemende complexiteit van hun Claude-modellen vraagt om infrastructuur die de veiligheid en betrouwbaarheid kan garanderen bij bedrijfskritische beslissingen.

De vijf zuilen van de AI-fabriek

NVIDIA introduceert een verschuiving van losse servers naar volledig geïntegreerde rack-scale systemen (POD-scale). Het platform bestaat uit vijf gespecialiseerde racks:

Rack TypeKernfunctieBelangrijkste Kenmerk
Vera Rubin NVL72GPU-rekenkrachtTraint modellen met 4x minder GPU's dan de Blackwell-generatie.
Vera CPU RackLogica & Validatie256 vloeistofgekoelde CPU's voor reinforcement learning.
Groq 3 LPXUltrasnelle InferenceTot 35x hogere doorvoer per megawatt voor redeneertaken.
BlueField-4 STXAI-Native OpslagVergroot GPU-geheugen over het hele netwerk voor agents.
Spectrum-6 SPXNetwerkverbinding10x hogere veerkracht door geavanceerde optische verbindingen.

Efficiëntie en energiebeheer

Een centraal thema van de presentatie was de noodzaak voor energie-efficiëntie. NVIDIA lanceerde het DSX-platform, inclusief DSX Max-Q, waarmee datacenters tot 30% meer infrastructuur kunnen plaatsen binnen een vastgesteld stroombudget. De DSX Flex-software moet AI-fabrieken bovendien flexibeler maken in hun interactie met het energienet.

De techniek achter de BlueField-4 STX-opslag, genaamd DOCA Memos, is specifiek ontwikkeld om de context van AI-gesprekken (het KV-cache) efficiënter op te slaan. Volgens Mistral AI-CTO Timothée Lacroix is dit cruciaal om agents sneller te laten redeneren over enorme datasets zonder verlies van coherentie.

Beschikbaarheid

Producten gebaseerd op de Vera Rubin-architectuur zullen vanaf de tweede helft van 2026 beschikbaar zijn via grote cloudproviders zoals AWS, Google Cloud, Microsoft Azure en Oracle Cloud. Wereldwijde hardwarepartners, waaronder Dell Technologies, HPE, Lenovo en Supermicro, bereiden inmiddels de levering van de eerste systemen voor.

Omada Hospitality workshop BW BN Companial BW
Omada Hospitality workshop BW BN