Martijn Kregting - 28 december 2023

Boudewijn Aelbers, VMware: ‘Zekerheid en betrouwbaarheid must voor inzet gen AI’

Generative (gen) AI is meer dan een hype: het is de grootste disruptie sinds de introductie van de grafische gebruikersinterface (GUI) decennia geleden. En dat betekent, in de woorden van Boudewijn Aelbers, directeur pre-sales VMware Benelux, dat elke organisatie heel zorgvuldig moet kijken naar wat gen AI wel of juist niet voor hen kan betekenen. “Be careful what you wish for”, stelt Aelbers, want dan ga je het misschien ook krijgen – alleen niet zoals je in gedachten had.

Boudewijn Aelbers, VMware: ‘Zekerheid en betrouwbaarheid must voor inzet gen AI’ image

Boudewijn Aelbers, VMware Benelux.

“Gen AI is de grootste technologische disruptie sinds 1979”, gelooft Aelbers oprecht. In december van dat jaar ging Apple-oprichter Steve Jobs namelijk met zijn team op bezoek bij Xerox, zag daar een graphical user interface (GUI) en zei: ‘dit moeten wij doen’. Inmiddels interacteert iedereen via een GUI met pc’s en smartphones en is het de gewoonste zaak van de wereld.

AI zelf is zeker niet nieuw en als zodanig is er geen sprake van een revolutie. “De technologie maakt net als de GUI al heel lang onderdeel van onze samenleving, van onze manier van werken, vaak zonder dat we het door hebben”, stelt Aelbers. “Dat geldt ook voor hoe we met technologie omgaan. Onze kinderen hebben geleerd om tegelijkertijd te typen en te luisteren en doen dat vrijwel automatisch. Wij ouders kunnen dat niet automatisch, want wij hebben nog geleerd om tegelijkertijd te schrijven en te luisteren. En we hebben allemaal inmiddels geleerd om te gaan met een GUI.

Wat Gen AI nu echter gaat doen, is de interactie met IT totaal veranderen, naar een niveau brengen zoals mensen dat gewend zijn: door te praten en te luisteren. “Dat is de schokgolf die gen AI veroorzaakt, waarom het zo’n enorme vlucht neemt. Niet alleen kan een veel groter groep mensen nu aan de slag met AI-ondersteunde toepassingen, je kunt ook nieuwe groepen mensen helpen die moeite hebben met digitalisering van de samenleving. Een senior die nog papieren overschrijfkaarten gebruikt bijvoorbeeld, omdat ze online bankieren niet snapt en niet vertrouwt. Als daar nu een AI-bot van de bank bij kan ondersteunen via mensachtige interactie, dan wordt het veel makkelijker en vertrouwder om online te bankieren.”

Kloof overbruggen

Die andere manier van interactie, dat is waar veel sectoren mee aan de slag moeten gaan, meent Aelbers. Of het nou horeca, retail, politie is: iedereen zoekt goed opgeleid personeel om te interacteren met klanten en burgers. Maar die mensen zijn er niet. Gen AI kan deze kloof deels overbruggen.

Aelbers: “Daarom hebben toepassingen zoals ChatGPT de AI-ontwikkeling zo’n enorme boost gegeven. Allereerst omdat het leuk en makkelijk is. Je stelt een vraag en je krijgt antwoord. Mijn kinderen kunnen zo eenvoudig een uittreksel van een boek vragen. En de docent kan dan wel denken dat het erg goed geschreven is, maar het blijft lastig om het met zekerheid te bepalen of een mens of een AI-toepassing het geschreven heeft. Want vijf andere kinderen die eenzelfde uittreksel gevraagd hebben, zullen alle vijf een net iets ander uittreksel krijgen.”

Bedrijven die zelf data genereren om gen-AI toepassingen te trainen, zullen daarnaast met elke nieuwe vraag die gesteld wordt, weer iets nieuws toevoegen aan de data waarmee getraind wordt. Dus elke keer wordt een AI-toepassing net iets slimmer. “Dat kan natuurlijk ook verkeerd gaan, afhankelijk van de trainingsdata”, stelt Aelbers. “Als je een AI traint dat 2+5 zeven is, maar opeens zeg je dat het acht is omdat je vrouw dat zegt en die heeft altijd gelijk, dan zal je AI-toepassing mogelijk ‘denken’ dat de uitkomst van het cijfer mogelijk veranderd is sinds de laatste data waarop het getraind is en dit voortaan als antwoord gaan geven.”

Veiligheid en betrouwbaarheid

Waar dit nog een leuke anekdote kan zijn: als je AI-modellen wilt ontwikkelen die kunnen voorspellen wanneer iemand in staat zal zijn van de IC af te gaan, dan wil je toch echt een betrouwbaar antwoord hebben. Die veiligheid, die betrouwbaarheid, dat is nu nog wel een ding, schetst Aelbers.

“Denk aan hallucinaties: LLM-gebaseerde toepassingen die informatie verzinnen of manipuleren om het antwoord te kunnen geven waarom gevraagd wordt. Een klein voorbeeld: een Google executive vroeg een tijd geleden aan een LMM-toepassing: maak uittreksels van zeven boeken die ik heb geschreven – hij had er vijf geschreven – en kreeg vervolgens ook zeven uittreksels. Taaltechnisch allemaal correct, maar er zijn gewoon twee boeken bij verzonnen. Hoe kun je ervoor zorgen dat je zekerheid krijgt over een betrouwbaar antwoord? Dat is nog lastig hoor.”

Veel onzekerheden

Met zoveel onzekerheden over wat je wel of niet kan met gen AI, over de impact van komende wetgeving, de snelheid van nieuwe gen-AI ontwikkelingen, is het ook lastig voor bedrijven om nu al de sprong te wagen en zich op de mogelijkheden van deze technologie te storten. Doe dus rustig aan, en wees voorzichtig in hoe je het toepast, is de boodschap van Aelbers.

“Be careful what you wish for. In een virtuele test kreeg een AI-gestuurde drone de opdracht om een bepaald doel te vernietigen, en zich daarbij door niets en niemand te laten tegenhouden. Daarop besloot de drone om eerst zijn bestuurder aan te vallen en vervolgens de commandotoren waar de signalen vandaan kwamen. Zo kon de drone garanderen dat niets of niemand hem meer kon tegenhouden. Gelukkig was het een virtuele test.”

Verder is het belangrijk om vooraf goed te bepalen met welke data je een AI-toepassing traint, vervolgt Aelbers. “Is het allemaal jouw data, of gebruik je ook andermans data, met mogelijk onvoorziene gevolgen zoals rechtszaken in de toekomst? En als je publieke data gebruikt via een publiek netwerk, geef je dan niet mogelijk ook eigen data weg die je liever binnen de onderneming wil houden?

Private AI

VMware zou VMware niet zijn als het niet ook al (een deel) van het antwoord op bovenstaande vragen had. Dat is volgens Aelbers onder meer Private AI, als nieuw onderdeel van het multicloud-platform Cloud Foundation.

“Zo kunnen organisaties in een veilige omgeving met eigen data, met garanties ingebouwd dat het ook zal voldoen aan komende regulering op onder meer AI- en security-gebied, bouwen aan AI-toepassingen. Dan is de belangrijkste vraag vooral: wat wil je ermee doen?

VMware ziet zelf drie toepassingsgebieden voor gen AI:

a) Zelf het beste platform zijn om AI-workloads mee te draaien, ongeacht of je Intel, Nvidia, Watson IBM, open source frameworks of andere referentie-architecturen et cetera gebruikt.

b) Gen AI in eigen producten gebruiken om die slimmer en beter toepasbaar voor klanten te maken. Denk aan intelligent operations, self healing workplaces.

c) Intern AI toepassen om als VMware een betere bedrijfsvoering te hebben en zo klanten beter van dienst te kunnen zijn.

Simpliciteit

Tijdens VMware Explore 2023 in Barcelona afgelopen november werd er ook voortdurend op gehamerd dat de organisatie het gebruik van zijn uitgedijde portfolio simpeler wil maken. Nu is iets van de complexiteit van multi-cloud die VMware wil oplossen, in het portfolio zelf geslopen. Nu er ook gen AI bij komt, is het des te belangrijker om die complexiteit te beperken, benadrukt Aelbers.

“Dat gaat om een aantal aspecten. Allereerst staat VMware voor keuzevrijheid. We werken met meerdere marktleidende partijen samen om AI-referentie-architecturen neer te zetten. Wil je met Intel werken, dan kan dat zo. Wil je met Nvidia werken, idem dito.”

Ten tweede heeft VMware innovaties in het Cloud Foundation-platform doorgevoerd om efficiënter om te gaan met bijvoorbeeld AI-workloads. Die workloads zijn meestal complex en groot, stelt Aelbers.

“We willen allemaal een betere wereld, carbon neutral worden. We waren ook allemaal geschokt toen op een gegeven moment duidelijk werd dat het maken van nieuwe bitcoins evenveel energie kostte als de consumptie van het land Zwitserland. Als iedereen met LLM’s aan de slag gaat, zal de hoeveelheid energie voor bitcoin mining hierbij vergeleken verbleken. Wij zijn er in geslaagd delen van het datatransport voor het trainen van LLM’s overbodig te maken. Dat maakt de ontwikkeling sneller en het bespaart enorm veel stroom.”

Ten derde, somt Aelbers tot slot op, wil VMware het mogelijk maken om meer context te bieden. “Als je bijvoorbeeld een LLM traint voor de zorgsector, dan moet het mogelijk zijn om eenzelfde vraag vanuit uiteenlopende disciplines – een chirurg, een anesthesist, een verpleger – te voorzien van een antwoord afgestemd op hun functie.”