Witold Kepinski - 24 april 2024

NVIDIA neemt Run:ai over

Om klanten te helpen efficiënter gebruik te maken van hun AI-computerbronnen, heeft NVIDIA aangekondigd dat het een definitieve overeenkomst is aangegaan voor de overname van Run:ai, een op Kubernetes gebaseerde softwareleverancier voor workloadsbeheer en orkestratie.

NVIDIA neemt Run:ai over image

NVIDIA meldt: 'AI-implementaties bij klanten worden steeds complexer, waarbij de werklast wordt verdeeld over de cloud-, edge- en on-premise datacenterinfrastructuur.

Het beheren en orkestreren van generatieve AI, aanbevelingssystemen, zoekmachines en andere workloads vereist een geavanceerde planning om de prestaties op systeemniveau en op de onderliggende infrastructuur te optimaliseren.

Met Run:ai kunnen zakelijke klanten hun computerinfrastructuur beheren en optimaliseren, zowel op locatie, in de cloud als in hybride omgevingen.

Het bedrijf heeft een open platform gebouwd op Kubernetes, de orkestratielaag voor moderne AI- en cloudinfrastructuur. Het ondersteunt alle populaire Kubernetes-varianten en kan worden geïntegreerd met AI-tools en -frameworks van derden.

Tot de klanten van Run:ai behoren enkele van 's werelds grootste ondernemingen in meerdere sectoren, die het Run:ai-platform gebruiken om GPU-clusters op datacenterschaal te beheren.

“Run:ai werkt sinds 2020 nauw samen met NVIDIA en we delen de passie om onze klanten te helpen het beste uit hun infrastructuur te halen”, aldus Omri Geller, medeoprichter en CEO van Run:ai. “We zijn blij om ons bij NVIDIA aan te sluiten en kijken ernaar uit om onze reis samen voort te zetten.”

Het Run:ai-platform biedt AI-ontwikkelaars en hun teams:

  • Een gecentraliseerde interface voor het beheren van de gedeelde computerinfrastructuur, waardoor eenvoudiger en snellere toegang tot complexe AI-workloads mogelijk wordt.
  • Functionaliteit om gebruikers toe te voegen, ze onder teams te beheren, toegang te bieden tot clusterbronnen, controle over quota's, prioriteiten en pools, en het gebruik van bronnen te monitoren en te rapporteren.
  • De mogelijkheid om GPU's te bundelen en rekenkracht te delen (van fracties GPU's tot meerdere GPU's of meerdere knooppunten van GPU's die op verschillende clusters draaien) voor afzonderlijke taken.
  • Efficiënt gebruik van GPU-clusterresources, waardoor klanten meer uit hun computerinvesteringen kunnen halen.

NVIDIA zal de producten van Run:ai in de nabije toekomst blijven aanbieden onder hetzelfde bedrijfsmodel. En NVIDIA zal blijven investeren in de Run:ai-productroadmap als onderdeel van NVIDIA DGX Cloud , een AI-platform dat samen met toonaangevende clouds voor bedrijfsontwikkelaars is ontworpen en een geïntegreerde, full-stack service biedt die is geoptimaliseerd voor generatieve AI.

NVIDIA DGX- en DGX Cloud-klanten krijgen toegang tot de mogelijkheden van Run:ai voor hun AI-workloads, met name voor implementaties van grote taalmodellen. De oplossingen van Run:ai zijn al geïntegreerd met onder meer NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, NGC- containers en NVIDIA AI Enterprise- software.

NVIDIA's versnelde computerplatform en Run:ai's platform zullen een breed ecosysteem van oplossingen van derden blijven ondersteunen, waardoor klanten keuze en flexibiliteit krijgen.

Samen met Run:ai zal NVIDIA klanten in staat stellen om over één enkele fabric te beschikken die overal toegang heeft tot GPU-oplossingen. Klanten kunnen verwachten te profiteren van een beter GPU-gebruik, een verbeterd beheer van de GPU-infrastructuur en een grotere flexibiliteit dankzij de open architectuur.'