Wouter Hoeffnagel - 18 juli 2025

Deepfakes steeds vaker ingezet voor cyberaanvallen

Deepfakes zijn niet langer een hype, maar worden daadwerkelijk gebruikt voor misbruik in de echte wereld. Ze ondermijnen digitaal vertrouwen, stellen bedrijven bloot aan nieuwe risico's en versnellen de businessmodellen van cybercriminelen.

Deepfakes steeds vaker ingezet voor cyberaanvallen image

Hiervoor waarschuwt Trend Micro in een recent rapport. Cybercriminelen maken steeds vaker gebruik van generatieve AI-tools, die krachtiger, goedkoper en toegankelijker zijn geworden. Deze tools worden ingezet voor verschillende vormen van criminaliteit, variërend van zakelijke fraude tot chantage en identiteitsdiefstal.

'AI-gegenereerde media vormen dreiging voor bedrijven'

David Sancho, senior threat researcher bij Trend Micro: “AI-gegenereerde media zijn niet alleen een risico voor de toekomst, maar vormen nu al een echte dreiging voor bedrijven. We zien hoe leidinggevenden geïmiteerd worden, hoe sollicitatieprocedures worden gesaboteerd en hoe financiële beveiligingen met gemak worden omzeild. Dit onderzoek is een wake-upcall – bedrijven die zich niet proactief voorbereiden op het deepfake-tijdperk, lopen nu al achter. In een wereld waarin ‘zien is geloven’ niet meer geldt, moet digitaal vertrouwen vanaf de basis worden opgebouwd.”

Uit het onderzoek blijkt dat cybercriminelen geen onderliggende expertise meer nodig hebben om overtuigende aanvallen uit te voeren. In plaats daarvan maken ze gebruik van standaard video-, audio- en afbeeldingsgeneratieplatformen, vaak gericht op content creators, om realistische deepfakes te maken met als doel zowel mensen als organisaties te misleiden. Deze tools zijn goedkoop, gebruiksvriendelijk en steeds beter in staat om identiteitsverificatie en beveiligingssystemen te omzeilen.

Ingezet voor CEO-fraude en nepsollicitaties

Het rapport schetst een groeiend cybercrimineelecosysteem waarin deze platformen worden ingezet voor overtuigende oplichtingspraktijken. Denk daarbij aan CEO-fraude, waarbij deepfake-audio of -video wordt gebruikt om in live vergaderingen leidinggevenden te imiteren. Dit is steeds moeilijker te detecteren. Ook worden sollicitatieprocedures gesaboteerd, waarbij nep-kandidaten AI gebruiken om sollicitatiegesprekken te doorlopen en ongeoorloofde toegang te krijgen tot interne systemen. Daarnaast vinden deepfake-aanvallen plaats op financiële instellingen, waarbij criminelen Know Your Customer (KYC)-procedures omzeilen met vervalste gegevens om anoniem geld wit te wassen.

In de cyber-onderwereld worden tutorials, toolkits en diensten actief aangeboden om deze praktijken te stroomlijnen. Van stapsgewijze handleidingen om onboarding-procedures te omzeilen tot plug-and-play gezichtsvervangingstools: de drempel om in te stappen is extreem laag geworden.

Nu deepfake-aanvallen frequenter en geavanceerder worden adviseert Trend Micro bedrijven om proactieve maatregelen te nemen om hun risico's te beperken en hun mensen en processen te beschermen. Denk aan het trainen van personeel in social engineering-risico's, het herzien van authenticatieprocessen en het verkennen van detectieoplossingen voor synthetische media.

Gartner BN tm 12-11-2025 - 1