Wouter Hoeffnagel - 04 maart 2026

AI speelt steeds grotere rol in cyberaanvallen en -verdediging

AI is niet langer een experimentele technologie in cybersecurity, maar een structurele factor die zowel aanvallers als verdedigers beïnvloedt. Het dreigingslandschap veranderd snel en organisaties worden geconfronteerd met geavanceerdere desinformatiecampagnes, manipulatie van AI-modellen en een sterke toename van hypergepersonaliseerde phishing.

AI speelt steeds grotere rol in cyberaanvallen en -verdediging image

Hiervoor waarschuwt het AI Engineering-team van HarfangLab. Door de snelle groei van open-source AI-modellen en het gebruik van large language models (LLM’s) voor informatievoorziening wordt het moeilijker om feit van fictie te onderscheiden. Kwaadwillenden gebruiken AI om overtuigende nepcontent te maken, variërend van tekst en beeld tot audio en video.

Data poisoning

HarfangLab waarschuwt ook voor data poisoning: onderzoek toont aan dat kleine aanpassingen in trainingsdata al voldoende zijn om het gedrag van een model structureel te beïnvloeden. Dit vergroot het risico op gemanipuleerde output, met mogelijke gevolgen voor besluitvorming en onderzoek.

“Vertrouwen in AI-tools kan alleen bestaan als er technologische waarborgen, transparantie, duidelijke regels en onafhankelijke controles zijn,” zegt Pierre Delcher, Head of Threat Research bij HarfangLab. “Ontbreekt één van die pijlers, dan kunnen kleine kwetsbaarheden uitgroeien tot systeemrisico’s.” 

AI als aanvalsvector in de softwareketen

Een zorgwekkende ontwikkeling is het manipuleren van code die door LLM’s wordt gegenereerd. Aanvallers kunnen deze modellen beïnvloeden, waardoor ze onveilige of kwaadaardige code voorstellen aan ontwikkelaars. Hiermee wordt de AI-assistent zelf onderdeel van de aanval.

In plaats van bestaande kwetsbaarheden uit te buiten, richt de aanval zich nu op het ontwikkelproces. Wanneer gemanipuleerde code wordt opgenomen in applicaties of softwarebibliotheken, kan dit via de hele softwareketen verspreid worden – met potentieel duizenden of miljoenen eindgebruikers als slachtoffer.

Hypergepersonaliseerde en schaalbare phishing

Phishing blijft de meest zichtbare AI-gerelateerde dreiging, maar de methodes veranderen. Waar gepersonaliseerde fraude eerder handmatig en tijdrovend was, maakt AI nu automatisering en verfijning op grote schaal mogelijk.

Aanvallen beperken zich niet langer tot e-mail en sms. Ook spraak wordt ingezet via AI-gegenereerde stemmen (vishing), waarbij aanvallers zich overtuigend voordoen als collega’s, leidinggevenden of leveranciers. Door de verbetering van contentgeneratie worden deepfakes steeds toegankelijker, wat online oplichting geloofwaardiger en moeilijker herkenbaar maakt.

Volgens HarfangLab ontwikkelt phishing zich tot een polymorf model: berichten passen zich automatisch aan aan het doelwit, de context en eerdere interacties. Dit vergroot niet alleen de slagingskans, maar maakt detectie door traditionele filters complexer.

Van cyberincident naar fysieke schade

AI-systemen worden steeds vaker geïntegreerd in operationele omgevingen, zoals energiebeheer, logistiek en industriële automatisering. Eind 2025 meldden meerdere organisaties risicovol gedrag van autonome AI-agents, waaronder ongeautoriseerde toegang en onbedoelde datablootstelling.
HarfangLab signaleert dat het risico toeneemt nu deze AI-agents directe processen in de fysieke wereld aansturen. Manipulatie via promptinjectie of gemanipuleerde data kan leiden tot tastbare verstoringen, zoals verkeerd aangestuurde robots, ontregelde transportlijnen of foutieve routing in logistieke systemen.

De opkomst van physical AI, zoals autonome magazijnsystemen en consumentrobotica, verkleint de afstand tussen digitale instructies en fysieke acties. Hierdoor groeit de kans dat misbruik van AI niet alleen digitale, maar ook concrete schade veroorzaakt aan infrastructuur en bedrijfsprocessen.

AI in verdediging: van detectie naar assistent

AI versterkt ook de verdediging. Machine learning en deep learning worden al jaren gebruikt om afwijkend gedrag en onbekende dreigingen te detecteren. Sinds 2025 is er een verschuiving zichtbaar naar generatieve AI als actieve assistent voor security-analisten.

Door de toename van geautomatiseerde aanvallen groeit het aantal meldingen dat beoordeeld moet worden. AI helpt bij het prioriteren van alerts, het vertalen van technische detectieregels naar begrijpelijke taal en het automatiseren van incidentrespons. Binnen threat intelligence ondersteunt AI bij het samenvatten van aanvalscampagnes en het correleren van bronnen, zodat analyses sneller leiden tot concrete acties.

Volgens Hugo Michard, AI Lead bij HarfangLab, is AI daarmee definitief onderdeel van het speelveld. “AI is aanwezig aan beide kanten: bij aanvallers én bij verdedigers. Dat vraagt niet alleen om technologische innovatie, maar ook om transparantie, duidelijke use cases en naleving van regelgeving zoals de AI Act.”

Enable U Connecting Everything BW + BN Lobster BW + BN
Enable U Connecting Everything BW + BN