Witold Kepinski - 27 januari 2026

Microsoft Maia 200 AI-chip daagt dominantie NVIDIA uit

Microsoft heeft de Maia 200 gepresenteerd, een eigen ontworpen AI-accelerator die specifiek is gebouwd voor 'inference' – het uitvoeren van AI-modellen. Met deze nieuwe processor belooft de techgigant de kosten voor het genereren van AI-tokens drastisch te verlagen, terwijl de prestaties die van concurrenten zoals Amazon en Google overtreffen.

De aankondiging, gedaan door Scott Guthrie (Executive Vice President Cloud + AI), markeert een belangrijke stap in Microsofts strategie om minder afhankelijk te worden van externe chipfabrikanten zoals Nvidia. De Maia 200 is volgens Microsoft de krachtigste 'first-party' chip van alle grote cloudproviders tot nu toe.

Krachtpatser op 3 nanometer

De specificaties van de Maia 200 zijn indrukwekkend. De chip wordt gefabriceerd op het geavanceerde 3nm-proces van TSMC en bevat meer dan 140 miljard transistoren. De focus ligt volledig op efficiëntie bij grootschalige workloads:

Rauwe rekenkracht: De chip levert meer dan 10 petaFLOPS aan 4-bit precisie (FP4). Volgens Microsoft is dit drie keer sneller dan de derde generatie Amazon Trainium.

Geheugensnelheid: Om enorme modellen zoals GPT-5.2 snel te voeden, is de chip uitgerust met 216GB HBM3e-geheugen met een bandbreedte van 7 TB/s.

Efficiëntie: De hardware biedt een verbetering van 30% in 'performance-per-dollar' vergeleken met de huidige generatie hardware in de Azure-datacenters.

Brandstof voor GPT-5.2 en Copilot

De nieuwe chip is niet alleen een theoretisch succes; hij draait al in de praktijk. Microsoft bevestigt dat de Maia 200 zal worden ingezet voor de nieuwste modellen van OpenAI, waaronder GPT-5.2. Daarnaast zal de chip de motor vormen achter Microsoft 365 Copilot en de interne 'Superintelligence'-teams ondersteunen bij het genereren van synthetische data voor het trainen van toekomstige modellen.

Wat de Maia 200 uniek maakt, is de snelheid van implementatie. Dankzij een innovatieve "pre-silicon" ontwikkelmethode konden AI-modellen al binnen enkele dagen nadat de eerste fysieke chips uit de fabriek kwamen, volledig operationeel zijn.

Wereldwijde uitrol en vloeistofkoeling

De eerste eenheden zijn reeds operationeel in de Azure-regio in Iowa (VS), met Phoenix (Arizona) als volgende op de lijst. Vanwege het hoge stroomverbruik van 750W per chip, maakt Microsoft gebruik van een geavanceerd gesloten vloeistofkoelingssysteem om de enorme hitte in de datacenters te beheersen.

Hoewel Microsoft de chips primair voor eigen gebruik en Azure-klanten inzet, stelt het vandaag ook de Maia SDK beschikbaar voor ontwikkelaars en academici. Hiermee kunnen zij hun modellen optimaliseren voor deze nieuwe architectuur.

Met de Maia 200 zet Microsoft de aanval in op de hardwaremarkt. In een tijd waarin de vraag naar AI-rekenkracht groter is dan het aanbod, geeft eigen silicium Microsoft een cruciale troefkaart in handen om zowel de snelheid als de kosten van de AI-revolutie te controleren.

PNY 01-2026 BW
Kickstart 2026 BN