Witold Kepinski - 13 maart 2026

Meta daagt Nvidia uit met eigen familie AI-chips

Techgigant Meta heeft een ambitieuze nieuwe koers aangekondigd voor zijn hardware-strategie. Om de explosieve groei van generatieve AI (GenAI) bij te benenen, lanceert het bedrijf in recordtempo vier nieuwe generaties van zijn eigen AI-chips. Onder de vlag van het MTIA-programma (Meta Training and Inference Accelerator) wil het moederbedrijf van Facebook en Instagram minder afhankelijk worden van externe leveranciers zoals Nvidia.

Meta daagt Nvidia uit met eigen familie AI-chips image

De uitdaging voor Meta is enorm: dagelijks maken miljarden mensen gebruik van AI-gestuurde functies, van gepersonaliseerde aanbevelingen tot slimme assistenten. De hardware die dit moet aansturen veroudert echter sneller dan de traditionele ontwikkelcycli van chips. Meta’s antwoord? Een strategie van "hoge snelheid", waarbij ongeveer elke zes maanden een nieuwe chip wordt opgeleverd.

Een kwartet aan chips: MTIA 300 tot 500

Waar de eerste generaties MTIA-chips nog vooral gericht waren op aanbevelingsalgoritmes, verschuift de focus nu volledig naar de rekenkracht die nodig is voor grote taalmodellen (LLMs) zoals Llama.

De nieuwe line-up ziet er als volgt uit:

  • MTIA 300: De basis die momenteel al in productie is voor trainingstaken.
  • MTIA 400: De eerste chip die qua ruwe prestaties de strijd aan moet gaan met commerciële koplopers. Deze chip is inmiddels succesvol getest in laboratoria.
  • MTIA 450 (begin 2027): Specifiek geoptimaliseerd voor GenAI-inference (het uitvoeren van modellen), met een verdubbeling van de geheugenbandbreedte.
  • MTIA 500 (loop van 2027): De krachtigste variant, met 25 keer meer rekenkracht dan de MTIA 300.

"Inference First" en modulaire opbouw

Opvallend aan de strategie is dat Meta kiest voor een inference-first benadering. Terwijl de meeste krachtige chips op de markt (zoals die van Nvidia) primair ontworpen zijn voor het zware trainingswerk van AI-modellen, richt Meta zich juist op het efficiënt en goedkoop draaien van die modellen op wereldwijde schaal.

Daarnaast werkt Meta met een modulair ontwerp van 'chiplets'. In plaats van de hele chip opnieuw uit te vinden, kunnen losse onderdelen voor bijvoorbeeld netwerk of berekeningen afzonderlijk worden geüpdatet. Dit stelt Meta in staat om verbeteringen in maanden door te voeren in plaats van jaren.

Naadloze integratie met PyTorch

Om ervoor te zorgen dat software-ontwikkelaars direct met de nieuwe hardware aan de slag kunnen, is de MTIA-familie "PyTorch-native" gebouwd. Omdat PyTorch (het meest gebruikte raamwerk voor AI-ontwikkeling) zijn oorsprong vond bij Meta, sluit de hardware hier naadloos op aan. Ontwikkelaars hoeven hun code niet herschrijven; modellen kunnen tegelijkertijd op zowel traditionele GPU’s als op Meta’s eigen MTIA-chips draaien.

Waarom eigen chips?

De drijfveer achter dit miljardenproject is tweeledig: kostenbeheersing en flexibiliteit. Door eigen chips te ontwikkelen in samenwerking met Broadcom, kan Meta de infrastructuur exact afstemmen op zijn eigen behoeften. Hiermee hoopt het bedrijf de laagst mogelijke kosten per interactie te realiseren, cruciaal wanneer je diensten aanbiedt aan miljarden gebruikers.

Met deze aankondiging bevestigt Meta dat de toekomst van AI niet alleen wordt beslist door wie de slimste algoritmes heeft, maar vooral door wie de meest efficiënte hardware kan bouwen om ze op te draaien.

Axians NaaS BW + BN Omada Hospitality workshop BW BN
Axians NaaS BW + BN