Witold Kepinski - 16 april 2026

Minderheid organisaties is bestand tegen deepfake-fraude

Terwijl cybercriminelen op grote schaal goedkope AI-tools inzetten voor digitale vervalsingen, blijft de zakelijke wereld gevaarlijk ver achter. Slechts 7% van de organisaties wereldwijd is echt voorbereid op de explosieve groei van fraude met deepfakes en kunstmatige intelligentie. Dat blijkt uit het nieuwe 2026 Anti-Fraud Technology Benchmarking Report van de Association of Certified Fraud Examiners (ACFE) en SAS.

Minderheid organisaties is bestand tegen deepfake-fraude image

Het rapport schetst een grimmig beeld van een "AI-race" die momenteel door de fraudeurs wordt gewonnen. Waar bedrijven gebonden zijn aan budgetcycli en ethische commissies, opereren criminelen zonder enige rem.

De opmars van de digitale kopie

De cijfers liegen niet: 77% van de fraudeprofessionals ziet een significante stijging in 'deepfake social engineering' — het nabootsen van stemmen of gezichten van directieleden om betalingen te forceren. Ook documentfraude via generatieve AI (GenAI) is met 75% fors toegenomen.

"De data schetst een zorgwekkend beeld. AI-gestuurde dreigingen zijn geen toekomst, ze zijn er nu al," waarschuwt John Gill, voorzitter van de ACFE. Vooral de publieke sector (26%) en de banken (23%) staan momenteel in de vuurlinie.

Governance: het vergeten puzzelstuk

Hoewel het gebruik van AI en Machine Learning (ML) in fraudebestrijding langzaam stijgt naar 25%, hapert de interne controle. Een opvallende paradox in het onderzoek:

  • 82% van de organisaties vindt het cruciaal dat AI-beslissingen uitlegbaar zijn.
  • Slechts 6% kan daadwerkelijk met vertrouwen uitleggen hóé hun modellen beslissingen nemen.
  • Minder dan 18% test hun systemen op bias en eerlijkheid.

Dit gebrek aan governance is een tikkende tijdbom. Voor banken en verzekeraars dreigen niet alleen reputatieschade, maar ook juridische sancties wanneer AI-modellen ondoorzichtige of oneerlijke beslissingen nemen.

De kloof tussen ambitie en realiteit

Hoewel 55% van de bedrijven hun budgetten voor anti-fraude technologie wil verhogen, blijft geld de grootste barrière. Maar wachten is volgens SAS geen optie. Stu Bradley benadrukt dat elk kwartaal dat een directie nodig heeft om technologie te evalueren, een kwartaal is waarin criminelen zich verder bewapenen.

Er zijn echter lichtpuntjes. Fysieke biometrie (zoals vingerafdruk- en irisscans) wordt inmiddels door 45% van de organisaties gebruikt om identiteiten te verifiëren. Ook is er hoge verwachting van 'Agentic AI' — zelfstandige AI-agenten die proactief op zoek gaan naar fraude — waarvan de adoptie tegen 2028 naar verwachting fors zal stijgen.

Conclusie: Een waarschuwing voor de boardroom

Het rapport is een duidelijke wake-up call voor bedrijfsleiders. De vraag is niet langer óf AI-innovaties nodig zijn, maar of organisaties het zich nog kunnen veroorloven om te wachten. Nu de drempel voor criminelen om geavanceerde deepfakes te maken vrijwel nihil is, is een defensie van slechts 7% simpelweg niet genoeg.

Belangrijkste inzichten op een rij:

  • 77% stijging in deepfake social engineering.
  • 84% ziet budgettaire beperkingen als grootste obstakel voor innovatie.
  • 62% verwacht dat kwantum-AI vóór 2030 de strijd tegen fraude zal transformeren.
  • 45% gebruikt nu fysieke biometrie (tegenover 34% in 2022).
Dutch IT Security Day 2026 BW + BN Axians BW + BN
Cybersec Netherlands 2026 BN