Gartner: Risico's voor organisatie door snelle omarming van AI-agents
Een gemiddeld wereldwijd Fortune 500-bedrijf gebruikt in 2028 meer dan 150.000 AI-agents, voorspelt marktonderzoeker Gartner. Dit is een aanzienlijke stijging ten opzichte van minder dan 15 in 2025. Deze groei leidt tot een ongecontroleerde verspreiding van AI-agents, wat complexiteit en beheersuitdagingen met zich meebrengt.
Tijdens het Gartner Digital Workplace Summit in Londen benadrukte Max Goss, senior directeur en analist bij Gartner, dat veel CIO’s en IT-leiders kampen met een ongecontroleerde groei van AI-agents binnen hun organisaties. Dit brengt risico’s met zich mee, zoals desinformatie, ongewenste datadeling en verlies van gegevens. Goss waarschuwt dat het blokkeren of beperken van AI-agents geen duurzame oplossing is: "Als medewerkers niet kunnen werken met de goedgekeurde tools, zullen ze waarschijnlijk om de organisatorische controles heen gaan en gebruikmaken van zogenaamde 'shadow AI', wat nog grotere risico’s met zich meebrengt. Organisaties moeten een balans vinden waarbij ze AI-agents kunnen beheersen en de verspreiding kunnen controleren, maar medewerkers ook veilig de mogelijkheid bieden om met deze tools te innoveren."
Governance en richtlijnen opstellen
Gartner identificeert zes stappen die CIO’s en IT-leiders kunnen helpen om governance en richtlijnen op te stellen, zodat de risico’s van de ongecontroleerde groei van AI-agents worden beperkt.
Organisaties wordt geadviseerd om allereerst duidelijke regels op te stellen voor het bouwen en delen van AI-agents, inclusief wie ze mag creëren en welke connectors zijn toegestaan. Daarnaast is het belangrijk om een centrale inventaris van AI-agents te ontwikkelen. Met behulp van AI-trust-, risico- en beveiligingsbeheertools (AI TRiSM) kunnen organisaties AI-agents ontdekken en categoriseren, zowel binnen goedgekeurde tools als binnen 'shadow AI'-oplossingen. Zodra een inventaris beschikbaar is, kunnen organisaties adaptieve controles implementeren om de juiste beleidsregels af te dwingen op basis van het risiconiveau van de AI-agent.
Identiteit, toestemmingen en levenscyclus beheren
Het beheer van de identiteit, toestemmingen en levenscyclus van AI-agents is eveneens essentieel. Dit omvat het beheren van toegang en het verwijderen van overbodige AI-agents om ongecontroleerde verspreiding te voorkomen. Daarnaast is het belangrijk om informatiebeheer voor AI toe te passen. Dit houdt in dat er regels moeten zijn voor de gegevens waartoe AI-tools en -agents toegang hebben, en dat er processen moeten zijn om de gegevens up-to-date te houden, de toestemmingen te beheren en verouderde gegevens te archiveren.
Voortdurende monitoring en correctie van het gedrag van AI-agents is een andere belangrijke stap. Organisaties moeten zicht houden op het gebruik van AI-agents, ervoor zorgen dat ze voldoen aan het beleid, afwijkend gedrag detecteren en AI-agents corrigeren die buiten hun beoogde scope of risicotolerantie opereren.
Cultuur van verantwoord AI-gebruik
Tot slot wordt organisaties aangeraden om een cultuur van verantwoord AI-gebruik te bevorderen. Dit kan door het aanbieden van trainingsprogramma’s en het opzetten van een community of practice, om zo de adoptie van AI-agents te stimuleren en beste praktijken binnen de organisatie te verspreiden.
Gartner-klanten kunnen meer informatie vinden in de rapporten How to Mature Generative and Agentic AI Governance for Enterprise Applications en The Human Compass: Secure and Govern an AI Native Workplace.