Wouter Hoeffnagel - 28 april 2026

Omarming van AI niet in lijn met de beveiliging daarvan

Organisaties kunstmatige intelligentie (AI) maken sneller operationeel dan dat ze de bijbehorende risico’s kunnen beheersen en onderzoeken. Dit brengt risico's met zich mee.

Omarming van AI niet in lijn met de beveiliging daarvan image

Hiervoor waarschuwt Proofpoint in het 2026 AI & Human Risk Landscape-rapport, gebaseerd op een wereldwijd onderzoek onder meer dan 1.400 securityprofessionals in twaalf landen. Het onderzoek belicht niet alleen de snelheid van AI-adoptie, maar ook de structurele zwaktes in security en incidentrespons die hierdoor ontstaan.

Steeds vaker ingezet

AI wordt steeds vaker ingezet binnen organisaties, variërend van klantenondersteuning en interne berichtendiensten tot e-mailworkflows en samenwerking met externe partijen. Uit het rapport blijkt dat 87 procent van de organisaties AI-assistenten heeft geïmplementeerd die de proeffase zijn gepasseerd. Daarnaast is 76 procent actief bezig met het testen of uitrollen van autonome AI-agents. Ondanks investeringen in AI-tools en securitymaatregelen twijfelt meer dan de helft van de organisaties aan de effectiviteit daarvan: 52 procent heeft niet het volledige vertrouwen dat hun maatregelen een gecompromitteerde AI kunnen detecteren. Bovendien heeft de helft van de organisaties met dergelijke maatregelen al te maken gehad met een bevestigd of vermoedelijk AI-gerelateerd incident.

Een opvallende bevinding is dat de meeste organisaties niet volledig voorbereid zijn op het onderzoeken van AI-gerelateerde incidenten die zich over meerdere systemen en kanalen uitstrekken. Slechts een derde van de respondenten geeft aan hierop volledig voorbereid te zijn.

“De kloof tussen de implementatie van AI en de paraatheid op het gebied van security wordt steeds groter, blijkt uit de bevindingen van dit onderzoek”, zegt Ryan Kalember, Chief Strategy Officer bij Proofpoint. “Organisaties passen AI-assistenten en autonome agents op steeds grotere schaal toe in hun belangrijkste werkprocessen, maar veel van hen kunnen niet garanderen dat hun securitymaatregelen effectief zijn. Ook kunnen ze incidenten die zich via samenwerkingskanalen voordoen niet volledig onderzoeken. Nu AI steeds meer integreert met de manier waarop werk wordt uitgevoerd, moeten securityleiders opnieuw nadenken over hoe ze vertrouwde interacties tussen mensen, data en AI-systemen kunnen beveiligen.”

Niet in lijn met securityparaatheid

De implementatie van AI loopt voor op de securityparaatheid. AI-toepassingen worden sneller in productie genomen dan dat de regelgevende kaders worden voltooid. Hoewel 87 procent van de organisaties AI-assistenten heeft geïmplementeerd en driekwart bezig is met de ontwikkeling van autonome AI-agents, beschrijft meer dan de helft de securitymaatregelen als achterblijvend, inconsistent of reactief. 42 procent meldt een verdacht of bevestigd AI-gerelateerd incident te hebben meegemaakt, wat aangeeft dat risico’s al aanwezig zijn in live-omgevingen.

Samenwerkingskanalen vormen het belangrijkste aanvalsoppervlak voor AI. AI vergroot het aanvalsoppervlak, waardoor dreigingen zich met machinesnelheid kunnen verspreiden en gevolgen hebben voor gekoppelde workflows. E-mail blijft met 63 procent de meest voorkomende dreigingsvector, maar de blootstelling breidt zich uit naar SaaS- en cloudapplicaties van derden (47 procent), social media- en berichtenplatforms (41 procent) en AI-assistenten of AI-agents (36 procent). Bij organisaties die een AI-gerelateerd incident hebben meegemaakt, neemt de blootstelling via elk kanaal toe, waaronder 67 procent via e-mail en 53 procent waarbij AI-systemen betrokken waren.

Het vertrouwen in securitymaatregelen overtreft de effectiviteit ervan. Hoewel 63 procent van de organisaties aangeeft over AI-securitymaatregelen te beschikken, heeft 52 procent niet het volledige vertrouwen dat deze maatregelen gecompromitteerde AI zouden detecteren. Meer dan de helft van de organisaties met securitymaatregelen meldt desondanks een AI-gerelateerd incident. Er blijven hiaten bestaan op het gebied van training (47 procent), inzicht in AI- of agentactiviteiten (42 procent) en afstemming van het governancebeleid tussen teams (41 procent).

Inzicht in alle verbonden omgevingen

De voorbereiding op onderzoeken blijft achter bij de realiteit van incidenten. Wanneer AI-gerelateerde incidenten plaatsvinden, hebben veel organisaties moeite om deze effectief te onderzoeken. Slechts een derde van de respondenten voelt zich volledig voorbereid op het onderzoeken van een AI- of agentgerelateerd incident. 41 procent geeft aan dat het moeilijk is om dreigingen over verschillende kanalen heen met elkaar in verband te brengen. Het vermogen om gebeurtenissen te reconstrueren hangt af van inzicht in alle onderling verbonden omgevingen, iets waar veel organisaties nog niet over beschikken.

De wildgroei aan securitytools vormt een structurele belemmering. De versnippering binnen securitystacks vergroot de uitdagingen, beperkt het inzicht en verlengt de reactietijd bij incidenten die zich met hoge snelheid over systemen verspreiden. 94 procent van de organisaties ervaart het beheer van meerdere securitytools als een redelijke tot zeer moeilijke uitdaging. Druk op de operationele kosten (45 procent), integratieproblemen (42 procent) en moeilijkheden bij het in verband brengen van dreigingen (41 procent) worden als belangrijkste oorzaken genoemd.

Securityarchitectuur als strategische prioriteit

Securityarchitectuur wordt een strategische prioriteit naarmate AI op grotere schaal wordt toegepast. Meer dan de helft van de organisaties streeft actief naar consolidatie van leveranciers en tools. Een meerderheid is van mening dat een uniform platform effectiever is dan afzonderlijke oplossingen. In de komende twaalf maanden plant 61 procent de AI-security uit te breiden, wil 56 procent de dekking van samenwerkingskanalen vergroten en verwacht 53 procent over te stappen op een uniforme platformaanpak.

“Hoewel AI nieuwe risico’s met zich meebrengt, zoals prompt engineering, bestaat de grootste impact ervan uit het versterken van de risico’s die er altijd al zijn geweest”, zegt Kalember. “Het uitvoeren van onbetrouwbare code, het verkeerd omgaan met gevoelige data en het verliezen van inloggegevens zijn dezelfde uitdagingen die mensen al decennialang met zich meebrengen. AI voert deze uit met de snelheid en schaal van een machine. Wanneer organisaties AI de sleutels geven om namens hen te handelen, zoals bij klanten, partners en interne systemen, neemt de impact van elk van die mislukkingen drastisch toe. De oplossing is niet om AI als een nieuwe categorie van dreigingen te behandelen, maar om strenge, beproefde controles toe te passen op wat AI aanraakt, wat het uitvoert en als wie het zich mag authentiseren. Organisaties die de basis vroeg op orde hebben, zullen AI vol vertrouwen opschalen. Degenen die dat niet doen, automatiseren alleen maar hun eigen kwetsbaarheid.”

Het 2026 AI & Human Risk Landscape-rapport biedt een wereldwijd overzicht van de manier waarop organisaties AI implementeren en de bijbehorende veiligheidsrisico’s beheersen. Het onderzoek richt zich op de volwassenheid van AI-implementaties, de effectiviteit van controlemaatregelen, ervaringen met incidenten, de blootstelling van samenwerkingskanalen en de paraatheid voor onderzoeken. In januari 2026 werden meer dan 1.400 fulltime securityprofessionals ondervraagd, afkomstig uit twintig sectoren en twaalf landen, waaronder de Verenigde Staten, het Verenigd Koninkrijk, Frankrijk, Duitsland, Italië, Spanje, de Verenigde Arabische Emiraten, Australië, Japan, Singapore, India en Brazilië. Het rapport is hier beschikbaar.

Huawei storage campaign 04-2026 BW + BN Dutch IT Security Day 2026 BW + BN
Huawei storage campaign 04-2026 BW + BN