Straaltje licht in de black box kan ons vertrouwen in AI vergroten
Een snelgroeiend leger gespecialiseerde AI Agents helpt medici, juristen, software developers en andere kenniswerkers om effectiever te werken. De angst en potentiële impact van fouten, ethische uitglijders en misbruik van gevoelige data neemt daardoor echter ook sterk toe.
TaskRabbit is een bekende marktplaats voor freelance klussers en opdrachtgevers. Na snelle groei in Amerika maakte het in Boston gevestigde bedrijf een succesvolle overstap naar onder meer Canada, Engeland, Frankrijk, Italië en Duitsland. Het aantal contacten bij de service desk steeg daardoor in korte tijd met zestig procent – tot 158.000 tickets per maand.
Succesverhaal met een geheim wapen
De klanttevredenheid van de inmiddels door IKEA overgenomen klusjesmarktplaats bleef echter onveranderd hoog. Het geheim achter dit succesverhaal: de introductie van een AI Agent in de service desk. Net als de Large Language Models die ze steeds vaker aansturen, hebben chatbots telkens weer een directe opdracht of prompt nodig om een bruikbare reactie te kunnen produceren.
AI Agents opereren veel autonomer. Net als veel moderne chatbots maken ze vaak gebruik van het ‘neurale netwerk’ - de veelzijdige rekenkracht van een LLM-model, die qua architectuur lijkt op de menselijke hersenen. Daar bovenop beschikken ze over een specifieke set instructies, eigen geheugen en een aantal andere hulpmiddelen om zelfstandig specifieke taken uit te voeren.
Virtuele assistent
Een enkele vraag van de gebruiker is daardoor vaak voldoende. Dat maakt ze zeer efficiënt en breed inzetbaar. Deze ‘virtuele assistenten’ kunnen afspraken managen voor medici, of zelfs diagnoses stellen. Investeerders bijstaan om te investeren volgens specifieke regels en voorkeuren. Of advocaten en juristen helpen om snel grote hoeveelheden jurisprudentie te doorzoeken.
Het stellen van een diagnose is uiteraard moeilijker dan het managen van een afspraak. Naarmate een taak complexer wordt, groeit ook het aantal beslissingslagen in een neuraal netwerk. Dat maakt het lastiger om het doorlopen beslissingsproces van de AI-model precies te begrijpen. Óók voor AI-experts, die de beslissingsprocessen in digitale neurale netwerken vaak een Black Box noemen.
Black box
Dat is een belangrijke drempel voor de succesvolle inzet van AI Agents en andere kunstmatig intelligente software. Als je die inzet voor het vergemakkelijken van belangrijke beslissingen over je gezondheid of je geld, wil je immers wel zo goed mogelijk (kunnen) begrijpen hoe dat advies tot stand komt. En, minstens even belangrijk: als er toch iets fout gaat, wil je precies weten wat er misging.
Experts werken keihard aan manieren om deze AI-black box transparanter te maken. Organisaties die de kans op succesvolle inzet van AI Agents of andere kunstmatig intelligente toepassingen willen vergroten, denken al in de ontwikkelingsfase goed na over mogelijkheden om de AI Explainability (XAI) van hun virtuele assistenten te optimaliseren. Als dat lukt, volgt een veelzijdige beloning.
Veelzijdig succes
Allereerst nemen experts veel makkelijker advies aan als ze begrijpen hoe dat tot stand komt. Een transparant beslissingsproces maakt het ook veel makkelijker om eventuele vooroordelen te identificeren en herstellen. Zowel gebruikers als seniormanagement krijgen daardoor meer vertrouwen in de eerlijke, ethische, (regel)conforme en daardoor ook meer succesvolle inzet van de veelzijdige AI-agent.
Door: Alexandre Goedert, Head of Technology bij Thoughtworks Nederland