28 april 2026

De volgende fase van cybersecurity: het beveiligen van mens én AI

Het cybersecuritylandschap ondergaat zijn meest ingrijpende transformatie sinds het ontstaan van het internet. AI is inmiddels een integraal onderdeel van bedrijfsvoering. Goldman Sachs schat dat AI-agents tegen 2030 ongeveer 60% van de waarde van de softwaremarkt zullen vertegenwoordigen. Gartner voorspelt dat 40% van de enterprise-applicaties tegen 2026 taakgerichte AI-agents zal integreren, tegenover minder dan 5% vandaag.

De volgende fase van cybersecurity: het beveiligen van mens én AI image

Nu AI-agents massaal hun intrede doen op de werkvloer, hebben we niet alleen te maken met menselijke kwetsbaarheden, maar ook met het gecombineerde risico van kwetsbaarheden in de interactie tussen mens en AI. Dit heeft geleid tot een nieuw aanvalsoppervlak dat geïntegreerde beveiligingsstrategieën vereist.

Paradox

AI vormt een fascinerende paradox binnen cybersecurity. Enerzijds is het een krachtig verdedigingsmiddel, in staat om anomalieën te detecteren, reacties te automatiseren en dreigingsinformatie op bovenmenselijke snelheid te verwerken. Anderzijds ontwikkelt het zich zowel tot een geavanceerd aanvalsmiddel als tot een waardevol doelwit.

Aanvallers gebruiken AI om overtuigendere phishingmails te creëren, deepfake-content te genereren voor social engineering-aanvallen en verkenningsactiviteiten te automatiseren. Tegelijkertijd ontwikkelen ze nieuwe aanvalsvectoren die specifiek gericht zijn op het manipuleren van AI-systemen. Denk aan technieken zoals prompt injection, model poisoning en adversarial inputs.

Defense-in-depth

Traditionele cybersecuritystrategieën richten zich sterk op perimeterbeveiliging, firewalls, intrusion detection-systemen en endpointbescherming. Hoewel deze nog steeds belangrijk zijn, zijn ze onvoldoende voor de AI-geïntegreerde werkplek van 2026 en daarna.

De meest kritieke beveiligingskloof bevindt zich in de interactielaag tussen mensen en AI-agents. Hier komt social engineering samen met AI, wat leidt tot nieuwe kwetsbaarheden waarvoor bestaande beveiligingsframeworks simpelweg niet zijn ontworpen. Denk aan de volgende opkomende dreigingsscenario’s:

  • Prompt injection-aanvallen: kwaadwillenden ontwerpen input om AI-agents te manipuleren zodat ze ongeautoriseerde acties uitvoeren, beveiligingscontroles omzeilen of gevoelige informatie vrijgeven.
  • Imitatie van AI-agents: cybercriminelen kunnen malafide AI-agents inzetten die zich voordoen als legitieme bedrijfsapplicaties en zo inloggegevens en gevoelige data verzamelen.
  • Mens-AI social engineering: geavanceerde aanvallen die inspelen op het vertrouwen tussen medewerkers en AI-systemen, waarbij gecompromitteerde AI-agents als ‘insider threat’ fungeren.

De mens-AI-grens

De komst van AI op de werkvloer elimineert de menselijke factor niet, maar versterkt die juist. Daarom moeten organisaties zich richten op het beschermen van de twee meest kritieke en kwetsbare elementen binnen moderne security:

  1. De menselijke laag: medewerkers in staat stellen veilig met AI te werken, manipulatiepogingen te herkennen en AI-output te verifiëren.
  2. De agentlaag: AI-agents beschermen tegen kwaadaardige prompts, datalekken en ongeautoriseerd gebruik van tools.

Evolutie in training

Net zoals organisaties jarenlang medewerkers hebben getraind in het herkennen van phishingmails en verdachte links, is het nu essentieel om AI-geletterdheid binnen de organisatie te ontwikkelen.

Dit gaat niet alleen over het leren gebruiken van AI-tools, maar ook over het herkennen wanneer deze tools verkeerd worden gebruikt, gecompromitteerd zijn of gemanipuleerd worden. Effectieve AI-securitytraining moet zich richten op meerdere kerncompetenties:

  • Toezicht op AI-agents: medewerkers moeten leren hoe ze output van AI-agents monitoren en valideren, vooral bij kritieke beslissingen.
  • Veilig promptgebruik: medewerkers moeten leren veilige prompts te formuleren en risicovolle input te herkennen.
  • Herkennen van afwijkend AI-gedrag: teams moeten kunnen signaleren wanneer AI-agents zich buiten hun bedoelde parameters gedragen.

Risico’s kwantificeren

Methoden voor risicobeoordeling moeten evolueren om AI-specifieke kwetsbaarheden mee te nemen. Waar traditionele metrics zich richtten op gebruikersgedrag, apparaatbeveiliging en netwerkactiviteit, moet risicobeoordeling nu ook kijken naar:

  • De vatbaarheid van individuen voor AI-gestuurde aanvallen
  • De beveiligingsstatus van AI-agents waarmee zij werken
  • De gevoeligheid van data binnen mens-AI-interacties
  • De potentiële impact van gecompromitteerde AI-agents
  • Het bouwen van een veerkrachtige mens-AI securitycultuur

De meest effectieve cybersecuritystrategieën erkennen dat technologie alleen niet voldoende is. De menselijke factor blijft cruciaal, of het nu gaat om traditionele systemen of AI-agenten. Organisaties moeten een securitycultuur creëren die AI omarmt, maar ook een gezonde dosis scepsis behoudt. Dat betekent: innovatie stimuleren, maar tegelijkertijd medewerkers trainen om AI-output kritisch te beoordelen en te verifiëren, vooral in securitygevoelige contexten.

Dubbele verdediging

De grens tussen mens en AI binnen cybersecurity zal steeds verder vervagen. Organisaties die dit erkennen en investeren in geïntegreerde mens-AI-securitytraining, zullen het best in staat zijn om een sterke securitypositie te behouden in een tijd van ongekende technologische verandering.

De boodschap is duidelijk: in het AI-tijdperk draait cybersecurity niet langer alleen om het beschermen van systemen tegen mensen, of mensen tegen systemen. Het draait om het beveiligen van de dynamische interactie tussen menselijke intelligentie en AI. Want juist daar liggen zowel onze grootste kwetsbaarheid als onze sterkste verdediging.

Door: Martin Kraemer (foto), CISO Advisor bij KnowBe4

Dutch IT Security Day 2026 BW + BN Axians datagovernance BW + BN
Dutch IT Security Day 2026 BW + BN