Wouter Hoeffnagel - 30 januari 2026

Bedrijven zijn niet klaar voor AI-gerelateerde cyberrisico's

Een analyse van bijna een biljoen AI/ML-transacties op het Zscaler Zero Trust Exchange-platform tussen januari en december 2025 wijst uit dat kunstmatige intelligentie niet langer alleen een hulpmiddel voor productiviteit is, maar ook een belangrijke vector voor cyberdreigingen. Volgens het onderzoek van Zscaler zijn organisaties onvoldoende voorbereid op de risico’s die gepaard gaan met de groeiende integratie van AI in bedrijfsprocessen.

Bedrijven zijn niet klaar voor AI-gerelateerde cyberrisico's image

“AI is niet langer alleen een productiviteitstool, maar een primair wapen voor razendsnelle autonome aanvallen door zowel cybercriminelen als natie-staten”, aldus Deepen Desai, EVP Cybersecurity bij Zscaler. “In het tijdperk van Agentic AI kan een inbreuk binnen enkele minuten leiden tot laterale verplaatsing en datadiefstal. Traditionele verdedigingsmechanismen kunnen deze snelheid niet aan en raken achterhaald. Om deze race te winnen, moeten organisaties AI met AI bestrijden door een intelligente zero trust-architectuur te implementeren die alle mogelijke aanvalsroutes afsluit.”

AI wordt inmiddels in bijna alle bedrijfsfuncties toegepast, maar de adoptie verloopt in veel sectoren sneller dan dat toezicht kan bijbenen. De financiële en verzekeringssector blijft met 23% van al het AI/ML-verkeer de meest AI-georiënteerde sector. De technologie- en onderwijssector laten respectievelijk een groei van 202% en 184% zien in het aantal transacties op jaarbasis. Toch ontbreekt het veel organisaties aan een basisinventarisatie van actieve AI-modellen en ingebouwde AI-functies, waardoor onduidelijk is waar gevoelige gegevens kwetsbaar zijn.

Kwetsbaarheden in AI-systemen

Uit gecontroleerde scans door het Red Team van Zscaler blijkt dat 100% van de geteste AI-systemen kwetsbaar is voor inbreuken. Kritieke kwetsbaarheden werden binnen enkele minuten blootgelegd, met een mediane tijd tot de eerste kritieke storing van 16 minuten. Binnen 90 minuten was 90% van de systemen gecompromitteerd, waarbij in het meest extreme geval de beveiliging al na één seconde werd omzeild.

ThreatLabz, het onderzoeksteam van Zscaler, waarschuwt dat autonome en semi-autonome AI-agents leiden tot meer geautomatiseerde cyberaanvallen. Deze agents worden ingezet voor verkenning, exploitatie en laterale verplaatsing binnen netwerken. Verdedigers moeten rekening houden met aanvallen die zich op ‘machinesnelheid’ kunnen aanpassen en opschalen.

Nieuwe supply chain-risico’s

Het volume aan AI/ML-activiteit is met 91% toegenomen ten opzichte van 2024, tot een ecosysteem van meer dan 3.400 applicaties. Deze snelle groei zorgt ervoor dat organisaties het overzicht verliezen op welke AI-modellen met welke data interacteren en welke supply chain daarachter schuilgaat. Cybercriminelen richten zich steeds vaker op deze AI-supply chain, omdat kwetsbaarheden in veelgebruikte modelbestanden laterale toegang tot kernsystemen kunnen bieden.

Naast ‘standalone AI’ zoals ChatGPT (115 miljard transacties in 2025) en Codeium (42 miljard transacties), vormen ingebedde AI-functies in alledaagse SaaS-applicaties een groeiend risico. Deze functies, vaak standaard ingeschakeld en niet gedetecteerd door traditionele beveiligingsfilters, kunnen ongemerkt gevoelige bedrijfsgegevens blootstellen. Atlassian, met platforms als Jira en Confluence, bleek een belangrijke bron van ingebedde AI-activiteit.

18.000 terabyte aan bedrijfsdata in AI-modellen

In 2025 werd 18.033 terabyte aan bedrijfsdata naar AI/ML-toepassingen overgedragen – een stijging van 93% ten opzichte van 2024. Dit komt overeen met ongeveer 3,6 miljard digitale foto’s. Tools zoals Grammarly (3.615 TB) en ChatGPT (2.021 TB) zijn hierdoor uitgegroeid tot de grootste opslagplaatsen van bedrijfsintelligentie. Uit het onderzoek bleek dat ChatGPT alleen al verantwoordelijk was voor 410 miljoen schendingen van Data Loss Prevention (DLP)-beleid, waaronder pogingen om toegang te krijgen tot burgerservicenummers, broncode en medische dossiers.

Traditionele beveiligingsmaatregelen zoals firewalls en VPN’s blijken ontoereikend in dynamische AI-omgevingen. Zscaler stelt dat een zero trust-benadering noodzakelijk is om AI-gestuurde dreigingen het hoofd te bieden. Het Zscaler Zero Trust Exchange-platform biedt onder andere:

  • Continue verificatie en toegang met minimale privileges om aanvalsoppervlakken te verkleinen.
  • Real-time inspectie van al het verkeer, inclusief versleutelde gegevens, om AI-dreigingen te blokkeren.
  • Automatische detectie en classificatie van gevoelige gegevens in alle omgevingen.
  • AI-gestuurde segmentatie om laterale bewegingen van aanvallers te beperken.
  • Voorspellende AI om beveiligingsoperaties en responsstrategieën te versnellen.

Het volledige ThreatLabz 2026 AI Security Report bevat een gedetailleerde dreigingsanalyse en praktische aanbevelingen voor organisaties. Het rapport is gebaseerd op een analyse van 989,3 miljard AI/ML-transacties gegenereerd door circa 9.000 organisaties via het Zscaler Zero Trust Exchange tussen januari en december 2025. Deze gegevens geven inzicht in het daadwerkelijke gebruik en de beperkingen van AI in wereldwijde bedrijfsomgevingen. Het ThreatLabz 2026 AI Security Report is hier beschikbaar.

PNY 01-2026 BW
PNY 01-2026 BN