06 februari 2024

AI gebruiken zonder een fortuin uit te geven

AI is net als elke andere technologie: hoe meer je het gebruikt, hoe beter en nuttiger het wordt. Maar meestal ook hoe duurder het wordt. Bedrijven denken vaak niet goed na over wat ze moeten doen als hun AI-projecten uitgroeien tot het punt waarop de total cost of ownership (TCO) de waarde van het project begint te overstijgen.

AI gebruiken zonder een fortuin uit te geven image

De meeste AI-projecten beginnen klein. Datawetenschappers kunnen werken vanaf een laptop of workstation, in de cloud of gebruikmaken van krachtige servers en storage in een datacenter. De uitdaging ontstaat wanneer deze AI-projecten opschalen. De middelen die aanvankelijk toereikend waren zijn misschien niet in staat om grotere AI-toepassingen aan te kunnen. Op zeker moment heeft AI meer kracht en een betrouwbaardere infrastructuur nodig. Echter, doe-het-zelf oplossingen kunnen lastig zijn om te implementeren en cloud AI-oplossingen kunnen duur zijn (denk aan de oplopende kosten van cloud computing, netwerken en storage).

De aantrekkingskracht en het gevaar van ‘Big AI’

AI wordt wereldwijd gezien als een van de belangrijkste investeringsgebieden voor bedrijven. De groei gaat zelfs zo snel dat de AI-markt over vijf jaar waarschijnlijk bijna 1,4 biljoen dollar waard zal zijn. Daarnaast zal AI voor 88% van de enterprises binnen een paar jaar het belangrijkste of grootste investeringsgebied zijn.

In de media wordt er op drie verschillende manieren over AI gepubliceerd:

  • Alle nieuwe en verbluffende mogelijkheden die AI kan bieden voor verschillende problemen
  • De verschillende frameworks die beschikbaar zijn om deze oplossingen te implementeren
  • Geavanceerde hardware voor deze frameworks, die zich snel blijft verbeteren

AI en machine learning (ML) zijn echter meer dan dit. Data-architecten of -engineers die verantwoordelijk zijn voor AI op industriële schaal weten dit, maar veel mensen nog niet. En dat is het gevaar van ‘Big AI’. Het is een beetje als gokken: je denkt alleen nog aan de mogelijkheden en wat je kunt winnen, terwijl elke rationele gedachte over wat er mis zou kunnen gaan of wat je zou kunnen verliezen opzij wordt gezet.

AI en ML implementaties kunnen enorme operationele kosten met zich meebrengen. Het is essentieel om deze kosten van tevoren goed te bepalen en te overwegen voordat AI daadwerkelijk ingezet wordt.

Van pilot naar productie: de uitdagingen

Een AI-model kan heel goed werken in het lab, maar het is niet gezegd dat dit in een productieomgeving en op schaal ook het geval is. Grote datasets op productieschaal vereisen schaalbare, high-performance rekenkracht en storage. Om flexibel te kunnen worden ingezet zijn apps nodig die zijn gebouwd met het oog op portabiliteit. Daarnaast vereisen security, beheer, governance en data ownership betrouwbare, schaalbare prestaties on-premises of in de cloud.

AI omvat complexe processen met meerdere pipelines voor data preparation, model prototyping, training en inferentie. Het ontwikkelen van een model is ook een niet-lineair proces van verkennen en experimenten. Je bouwt geen conventionele app. Het is een complex model gebaseerd op een combinatie van analytische en machine learning algoritmen. Het is ook een app, service en verzameling interfaces - die allemaal snel kunnen veranderen naarmate behoeften en technologieën zich ontwikkelen. Hiernaast moet alles op een soepele manier geïntegreerd worden als het uiteindelijk door eindgebruikers toegankelijk moet zijn.

En tot slot is grootschalige AI niet een kwestie van code goedkeuren of afkeuren. Er moet een datawetenschapper aan te pas komen om voortdurend de prestaties van het model te evalueren, dat sneller achteruit kan gaan dan conventionele software. Er is dus continue monitoring en hertraining nodig. Dat is voor een belangrijk deel wat AI anders maakt dan conventionele software, waarvoor veel IT- en DevOps-disciplines zijn ontwikkeld om software development te industrialiseren.

AI vereist een nieuwe, holistische aanpak waarbij data science teams samenwerken met DevOps en IT-teams om meer modellen in productie te krijgen.

MLOps en de realiteit van het schalen van AI-projecten

Om een succesvolle enterprise AI te ontwikkelen, is het belangrijk om vooruit te denken:

  • Hoe worden alle belangrijke productieactiviteiten ondersteund?
  • Hoe worden de valkuilen vermeden die de productie kunnen doen ontsporen?
  • Hoe wordt de bedrijfswaarde behouden als patronen verschuiven?

De antwoorden op de bovenstaande vragen vormen samen machine learning operations, oftewel MLOps. MLOps is het plannen van de infrastructuur - de reken- en storage componenten - die je nodig zult hebben als je het AI-project wilt opschalen.

AI vereisten voor data storage

Het juiste opslagplatform kan een AI-implementatie vereenvoudigen, de waarde ervan voor het bedrijf vergroten en de TCO lager houden dan die van een traditioneel datacenter of cloud resources.

De behoefte van datawetenschappers om met data modellen aan te passen en veranderende patronen en doelstellingen te onderzoeken, vereist een geconsolideerd platform - één efficient storage systeem met hoge prestaties dat voldoet aan de behoeften van alle projectfasen en waarmee ontwikkeling, training en productie eenvoudig toegang hebben tot dynamisch veranderende gegevens.

Het datastoragesysteem moet de parallelle verwerkingsbehoeften van meerdere trainingstaken aankunnen, zelfs tijdens incidentele pieken van grote sequentiële schrijfacties. Hiernaast moet het storage systeem ook in staat zijn om:

  • Snelle responstijden te bieden voor het lezen van kleine, willekeurige data met behoud van efficiënte sequentiële schrijfsnelheden
  • data te delen door werkstations en servers en snelle, niet verstorende capaciteitsuitbreiding mogelijk te maken
  • ‘parallel enumeration’ te ondersteunen (het gelijktijdig verwerken van items)
  • 24/7 365 dagen gedurende de hele levensduur van een project, zelfherstellend te zijn als componenten falen en niet zonder storing uit te breiden en te upgraden zijn
  • bescherming te bieden tegen menselijke fouten (bijvoorbeeld met snapshots van datasets) en eenvoudig passen in ecosystemen van datacenters

Conclusie

Bij het opschalen van AI-projecten kunnen organisaties tegen allerlei problemen aanlopen. Het is daarom verstandig om je goed in te lezen over deze mogelijke problemen, want zoals het bekende gezegde luidt: een goede voorbereiding is het halve werk.

Door: Daan Ruizendaal (foto), Country Manager Nederland bij Pure Storage