De volgende fase van cybersecurity: het beveiligen van mens én AI
Het cybersecuritylandschap ondergaat zijn meest ingrijpende transformatie sinds het ontstaan van het internet. AI is inmiddels een integraal onderdeel van bedrijfsvoering. Goldman Sachs schat dat AI-agents tegen 2030 ongeveer 60% van de waarde van de softwaremarkt zullen vertegenwoordigen. Gartner voorspelt dat 40% van de enterprise-applicaties tegen 2026 taakgerichte AI-agents zal integreren, tegenover minder dan 5% vandaag.
Nu AI-agents massaal hun intrede doen op de werkvloer, hebben we niet
alleen te maken met menselijke kwetsbaarheden, maar ook met het
gecombineerde risico van kwetsbaarheden in de interactie tussen mens
en AI. Dit heeft geleid tot een nieuw aanvalsoppervlak dat
geïntegreerde beveiligingsstrategieën vereist.
Paradox
AI vormt een fascinerende paradox
binnen cybersecurity. Enerzijds is het een krachtig
verdedigingsmiddel, in staat om anomalieën te detecteren, reacties
te automatiseren en dreigingsinformatie op bovenmenselijke snelheid
te verwerken. Anderzijds ontwikkelt het zich zowel tot een
geavanceerd aanvalsmiddel als tot een waardevol doelwit.
Aanvallers gebruiken AI om
overtuigendere phishingmails te creëren, deepfake-content te
genereren voor social engineering-aanvallen en
verkenningsactiviteiten te automatiseren. Tegelijkertijd ontwikkelen
ze nieuwe aanvalsvectoren die specifiek gericht zijn op het
manipuleren van AI-systemen. Denk aan technieken zoals prompt
injection, model poisoning en adversarial inputs.
Defense-in-depth
Traditionele cybersecuritystrategieën
richten zich sterk op perimeterbeveiliging, firewalls, intrusion
detection-systemen en endpointbescherming. Hoewel deze nog steeds
belangrijk zijn, zijn ze onvoldoende voor de AI-geïntegreerde
werkplek van 2026 en daarna.
De meest kritieke beveiligingskloof
bevindt zich in de interactielaag tussen mensen en AI-agents. Hier
komt social engineering samen met AI, wat leidt tot nieuwe
kwetsbaarheden waarvoor bestaande beveiligingsframeworks simpelweg
niet zijn ontworpen. Denk aan de volgende opkomende
dreigingsscenario’s:
- Prompt injection-aanvallen: kwaadwillenden ontwerpen input om AI-agents te manipuleren zodat ze ongeautoriseerde acties uitvoeren, beveiligingscontroles omzeilen of gevoelige informatie vrijgeven.
- Imitatie van AI-agents: cybercriminelen kunnen malafide AI-agents inzetten die zich voordoen als legitieme bedrijfsapplicaties en zo inloggegevens en gevoelige data verzamelen.
- Mens-AI social engineering: geavanceerde aanvallen die inspelen op het vertrouwen tussen medewerkers en AI-systemen, waarbij gecompromitteerde AI-agents als ‘insider threat’ fungeren.
De mens-AI-grens
De komst van AI op de werkvloer
elimineert de menselijke factor niet, maar versterkt die juist.
Daarom moeten organisaties zich richten op het beschermen van de twee
meest kritieke en kwetsbare elementen binnen moderne security:
- De menselijke laag: medewerkers in staat stellen veilig met AI te werken, manipulatiepogingen te herkennen en AI-output te verifiëren.
- De agentlaag: AI-agents beschermen tegen kwaadaardige prompts, datalekken en ongeautoriseerd gebruik van tools.
Evolutie in training
Net zoals organisaties jarenlang
medewerkers hebben getraind in het herkennen van phishingmails en
verdachte links, is het nu essentieel om AI-geletterdheid binnen de
organisatie te ontwikkelen.
Dit gaat niet alleen over het leren
gebruiken van AI-tools, maar ook over het herkennen wanneer deze
tools verkeerd worden gebruikt, gecompromitteerd zijn of
gemanipuleerd worden. Effectieve AI-securitytraining moet zich
richten op meerdere kerncompetenties:
- Toezicht op AI-agents: medewerkers moeten leren hoe ze output van AI-agents monitoren en valideren, vooral bij kritieke beslissingen.
- Veilig promptgebruik: medewerkers moeten leren veilige prompts te formuleren en risicovolle input te herkennen.
- Herkennen van afwijkend AI-gedrag: teams moeten kunnen signaleren wanneer AI-agents zich buiten hun bedoelde parameters gedragen.
Risico’s kwantificeren
Methoden voor risicobeoordeling moeten
evolueren om AI-specifieke kwetsbaarheden mee te nemen. Waar
traditionele metrics zich richtten op gebruikersgedrag,
apparaatbeveiliging en netwerkactiviteit, moet risicobeoordeling nu
ook kijken naar:
- De vatbaarheid van individuen voor AI-gestuurde aanvallen
- De beveiligingsstatus van AI-agents waarmee zij werken
- De gevoeligheid van data binnen mens-AI-interacties
- De potentiële impact van gecompromitteerde AI-agents
- Het bouwen van een veerkrachtige mens-AI securitycultuur
De meest effectieve
cybersecuritystrategieën erkennen dat technologie alleen niet
voldoende is. De menselijke factor blijft cruciaal, of het nu gaat om
traditionele systemen of AI-agenten. Organisaties moeten een
securitycultuur creëren die AI omarmt, maar ook een gezonde dosis
scepsis behoudt. Dat betekent: innovatie stimuleren, maar
tegelijkertijd medewerkers trainen om AI-output kritisch te
beoordelen en te verifiëren, vooral in securitygevoelige contexten.
Dubbele verdediging
De grens tussen mens en AI binnen
cybersecurity zal steeds verder vervagen. Organisaties die dit
erkennen en investeren in geïntegreerde mens-AI-securitytraining,
zullen het best in staat zijn om een sterke securitypositie te
behouden in een tijd van ongekende technologische verandering.
De boodschap is duidelijk: in het
AI-tijdperk draait cybersecurity niet langer alleen om het beschermen
van systemen tegen mensen, of mensen tegen systemen. Het draait om
het beveiligen van de dynamische interactie tussen menselijke
intelligentie en AI. Want juist daar liggen zowel onze grootste
kwetsbaarheid als onze sterkste verdediging.
Door: Martin Kraemer (foto), CISO Advisor bij KnowBe4