Wouter Hoeffnagel - 20 januari 2026

AI-gebruik in organisaties leidt tot stijging cyberrisico’s

Het gebruik van kunstmatige intelligentie (AI) binnen bedrijven zorgt voor een snelle toename van nieuwe cyberdreigingen. Het aantal beveiligingsincidenten met AI-toepassingen het afgelopen jaar met 43% steeg. Hiermee is AI de op één na grootste groeifactor in het dreigingslandschap, na e-mail.

AI-gebruik in organisaties leidt tot stijging cyberrisico’s image

Dit blijkt uit wereldwijd onderzoek van KnowBe4 onder 700 cybersecurityverantwoordelijken en 3.500 medewerkers. De opkomst van generatieve AI, autonome AI-agents en AI-gestuurde werkprocessen brengt nieuwe risico’s met zich mee. Medewerkers plaatsen gevoelige documenten in AI-tools, AI-systemen zijn vatbaar voor manipulatie en cybercriminelen gebruiken AI om aanvallen overtuigender en grootschaliger te maken. Cybersecurityleiders ervaren deze ontwikkelingen direct: 45% noemt het bijhouden van voortdurend veranderende AI-dreigingen hun grootste uitdaging bij het sturen van menselijk gedrag.

Toename deepfakes en AI-misbruik

AI speelt een steeds grotere rol in social engineering-aanvallen. Bijna een derde (32%) van de organisaties zag het afgelopen jaar meer incidenten met deepfakes, waarbij stemmen en identiteiten worden vervalst om aanvallen persoonlijker en geloofwaardiger te maken. Medewerkers zijn zich bewust van dit risico: 86% maakt zich zorgen over misleiding via deepfakes, bijvoorbeeld om toegang te krijgen tot systemen of vertrouwelijke gegevens.

Hoewel training en e-mailbeveiliging vaak worden ingezet om AI-risico’s te beperken, blijft technische detectie achter. Slechts 35% van de organisaties heeft technologie geïmplementeerd om deepfakes op te sporen. Hierdoor blijven veel AI-gedreven aanvallen onopgemerkt of worden ze laat ontdekt.

‘Shadow AI’ door gebrek aan governance

Ondanks dat 98% van de organisaties stappen heeft genomen om AI-gerelateerde cyberrisico’s te beheersen, ervaren medewerkers in de praktijk beperkingen. Slechts 26% krijgt snel toegang tot de benodigde AI-tools voor hun werk, terwijl meer dan de helft (56%) vindt dat toegang te traag verloopt of ontbreekt. Deze kloof stimuleert risicovol gedrag: 17% van de medewerkers gebruikt AI-tools zonder toestemming van IT- of securityteams, wat ook wel 'shadow AI' wordt genoemd'. Dit vergroot het risico op datalekken, ongeoorloofde verspreiding van gevoelige informatie en onzichtbare manipulatie van AI-agents.

Uit het onderzoek blijkt dat AI niet alleen een externe dreiging is, maar ook een intern risico dat direct samenhangt met menselijk gedrag. Zonder duidelijke richtlijnen, realtime begeleiding en zicht op gebruik verschuift kritiek werk naar onzichtbare, hoogrisico-omgevingen.

“De productiviteitswinst die AI oplevert is te groot om te negeren. De toekomst van werk vraagt daarom om een naadloze samenwerking tussen mens en AI,” zegt Javvad Malik, Lead CISO Advisor bij KnowBe4. “Medewerkers en AI-agents zullen in harmonie moeten samenwerken, ondersteund door een beveiligingsprogramma dat de risico’s van beide proactief beheert. Human Risk Management moet zich uitbreiden naar de AI-laag, voordat kritieke bedrijfsprocessen verschuiven naar hoog-risico platforms waar geen adequaat toezicht op is.”

Meer informatie is te vinden in het rapport 'The State of Human Risk 2025: The New Paradigm of Securing People in the AI Era'.

PNY 01-2026 BW
PNY 01-2026 BN