Witold Kepinski - 08 april 2026

Aria Networks onthult AI-native netwerk voor maximale efficiëntie

In de race om de meest efficiënte 'AI-fabriek' heeft de startup Aria Networks vandaag een wereldprimeur gepresenteerd: het eerste AI-native netwerk dat zichzelf optimaliseert. Met een kapitaalinjectie van $125 miljoen en een revolutionaire focus op 'Token Efficiency' wil het bedrijf de netwerkbeperkingen wegnemen die de huidige generatie AI-clusters teisteren.

Aria Networks onthult AI-native netwerk voor maximale efficiëntie image

De nieuwe rekeneenheid: Tokens per seconde

In het tijdperk van generatieve AI draait alles om de snelheid en de kosten waarmee tokens (de bouwstenen van taalmodellen) geproduceerd worden. Aria Networks stelt dat het netwerk hierbij de bepalende factor is. Hoewel de netwerkinfrastructuur slechts 10 tot 15% van de totale kosten van een AI-cluster beslaat, bepaalt het de effectiviteit van de resterende 85%.

Wanneer het netwerk hapert, staan duizenden peperduure GPU’s (accelerators) stil te wachten op data. Aria’s nieuwe benadering, genaamd Deep Networking, claimt de Model Flop Utilization (MFU) — de daadwerkelijke benutting van de rekenkracht — met cruciale procenten te verhogen. Volgens het bedrijf verdient een verbetering van slechts 1% in MFU de volledige kosten van het netwerk al terug.

Een netwerk dat 'denkt'

Aria breekt met de traditionele, statische netwerkconfiguraties. Deep Networking rust op vijf technologische pijlers die het netwerk transformeren van een passieve buis naar een actief, denkend systeem:

  • AI-Native SONiC: Een switch-platform dat vanaf de basis is opgebouwd rondom het open-source besturingssysteem SONiC, geschikt voor de nieuwste 800GbE en 1.6T standaarden.
  • Extreme Telemetrie: Het systeem verzamelt data met een resolutie die 100 tot 10.000 keer fijner is dan bij traditionele tools, waardoor zelfs de kleinste opstoppingen direct zichtbaar zijn.
  • Intelligente Agenten: Op elke laag van het netwerk draaien gespecialiseerde AI-agenten die in real-time beslissingen nemen over routing, load balancing en congestiebeheer.
  • Liquid Cooling: Gezien de enorme hitte die moderne AI-racks (tot 1MW per rack) genereren, zijn de switches beschikbaar in vloeistofgekoelde varianten.

Samenwerking in plaats van een 'Black Box'

Opvallend is de filosofie van Aria over de interactie tussen mens en machine. Het systeem fungeert niet als een ondoorzichtige zwarte doos; operators kunnen in natuurlijke taal vragen stellen aan de AI-agenten over de staat van het netwerk en samen strategieën bepalen om de prestaties te optimaliseren.

Daarnaast levert Aria zogenaamde Embedded Field Deployment Engineers. Dit zijn geen externe consultants, maar ingenieurs die direct in de teams van de klant worden geplaatst om het netwerk naadloos te integreren in de volledige AI-stack.

Zwaargewichten uit de sector

De lancering gaat gepaard met een investeringsronde van $125 miljoen, geleid door Sutter Hill Ventures, Atreides Management, Valor Equity Partners en Eclipse Ventures. Gavin Baker (Atreides Management) treedt toe tot de raad van bestuur. "Het netwerk is niet langer een bottleneck, maar een multiplier voor AI-investeringen," aldus het oprichtersteam.

Met de versnelde transitie naar 1.6T-netwerken — waarvan er naar verwachting 22 miljoen poorten verscheept zullen worden tegen 2027 — positioneert Aria zich als de architect van de infrastructuur die de AI-revolutie betaalbaar en schaalbaar moet houden. Voor operators betekent dit een cruciale stap: zij kunnen de laagste producenten van 'intelligentie' worden door simpelweg hun infrastructuur efficiënter te laten denken.

Dutch IT Security Day 2026 BW + BN Axians BW + BN
SAP Connect Day BN