UALink Consortium herdefinieert de kosten van AI-infrastructuur
Nu AI breed gebruikt wordt zorgt de opkomende UALink open standaard voor een aantal belangrijke veranderingen. Men belooft dat de kosten omlaaggaan en een vendor lock-in niet meer aan de orde is. De open standaard vormt een alternatief voor NVIA’s NVLink en wordt gedragen door meer dan 100 participanten. In het hoofdkantoor van AMD (Santa Clara) sprak Dutch IT Channel tijdens de recente editie van de IT Press Tour in Californië met Kurtis Bowman (foto) UALink Board Chair en Nathan Kalyanasundharam, de Technical Task Force Chair. Beiden zijn medewerkers van AMD.

De markt voor AI-infrastructuur lijkt een transformatie door te maken nu het UALink Consortium een open standaard voorstelt die de markt flink gaat opschudden. Hierdoor kan de markt voor grootschalige AI-implementaties fundamenteel veranderen. Het UALink Consortium kan rekenen op de steun van grote spelers zoals AMD, Apple, AWS, Google, Microsoft en nog zo’n 100 andere belanghebbenden.
NVDIA niet langer de alleenheerser
Kurtis: “De wereld van AI-infrastructuur wordt gedomineerd door NVIDIA dat een monopolistische positie heeft bij de GPU’s en de onderliggende verbindingsstandaarden op basis van NVLink. Het gesloten ecosysteem beperkt de vrijheid van klanten bij het kiezen voor leveranciers, waardoor de kosten hoger dan gewenst en noodzakelijk zijn. Het resultaat is dat het gebruik van AI-infrastructuur voor de klanten duurder is dan gewenst.” Klanten kunnen nu de beste GPU’s van diverse aanbieders selecteren terwijl ze gebruik maken van een gestandaardiseerde, onderling compatibele, netwerkstructuur. Deze scheiding van geesten zorgt voor concurrentiedruk in de hele stack, waardoor de kosten kunnen dalen en innovatiecycli mogelijk worden versneld.
De economische implicaties van deze ontwikkeling zijn aanzienlijk. Volgens de huidige schattingen vertegenwoordigt de interconnectie-infrastructuur 15-20% van de totale kosten van een AI-systeem. Door bij de open-standaard gebruik te maken van de bestaande Ethernet-infrastructuur en concurrentie met meerdere leveranciers mogelijk te maken, kan UALink deze kosten met 30-40% verlagen en tegelijkertijd de prestaties verbeteren.
Van alle markten thuis
De architectuur ondersteunt configuraties van single-rack implementaties tot multi-rack pods die plaats bieden aan maximaal 1.024 GPU-accelerators. Deze schaalbaarheid bestrijkt het volledige spectrum van AI-gebruiksscenario's, van toepassingen voor edge-inferentie tot hyperscale trainingsclusters. De modulaire aanpak stelt organisaties in staat om klein te beginnen en stapsgewijs op te schalen, waardoor de kapitaalefficiëntie wordt verbeterd en het implementatierisico wordt verkleind.
De betrokkenheid van Apple, ondanks zijn kenmerkende eigen aanpak, geeft het strategische belang van UALink aan voor bedrijven die op maat gemaakt AI-chips ontwikkelen. Naarmate organisaties steeds meer gedifferentieerde AI-acceleratorstrategieën nastreven, worden open interconnectie standaarden cruciale enablers voor innovatie en vrije markttoegang.