Redactie - 09 februari 2026

UNICEF waarschuwt: Deepfake-kindermisbruik is 'real life' kindermisbruik

In een alarmerend rapport van UNICEF, ECPAT en INTERPOL komt naar voren dat kunstmatige intelligentie (AI) op grote schaal wordt misbruikt voor het creëren van seksueel beeldmateriaal van kinderen. In het afgelopen jaar gaven wereldwijd minstens 1,2 miljoen kinderen aan dat hun beelden zijn gebruikt voor seksuele deepfakes. De boodschap van UNICEF is onverbiddelijk: "Deepfake-kindermisbruik is real life kindermisbruik."

UNICEF waarschuwt: Deepfake-kindermisbruik is 'real life' kindermisbruik image

De cijfers uit het onderzoek, uitgevoerd in elf landen, laten zien dat in sommige regio’s 1 op de 25 kinderen slachtoffer is. Dit staat gelijk aan gemiddeld één kind per schoolklas. De techniek die hierbij het meest wordt ingezet is 'nudification', waarbij AI kleding op bestaande foto’s digitaal verwijdert of verandert. Hierdoor ontstaan angstaanjagend realistische, maar valse naaktbeelden.

Slachtofferschap is echt, ook bij nepbeelden

UNICEF benadrukt dat het woord 'nep' in deepfakes misleidend is als het gaat om de schade. Zodra de identiteit of het gezicht van een kind wordt gebruikt, is dat kind een direct slachtoffer van seksueel misbruik. Zelfs als er geen herleidbaar kind in het beeld voorkomt, is de schade groot: dit materiaal normaliseert de seksuele uitbuiting van minderjarigen en vervuilt de databases van opsporingsdiensten, waardoor het opsporen van kinderen in acute nood wordt bemoeilijkt.

De angst onder kinderen is groot. In diverse landen geeft tot twee derde van de ondervraagde minderjarigen aan bang te zijn dat hun foto’s door AI-tools misbruikt zullen worden voor seksuele doeleinden.

Oproep aan overheid en techsector

Hoewel sommige AI-ontwikkelaars veiligheidsfilters inbouwen, worden veel modellen nog zonder enige waarborg gelanceerd. UNICEF roept op tot drie concrete acties:

Wetgeving: Overheden moeten wetten uitbreiden zodat ook AI-gegenereerd misbruikmateriaal expliciet strafbaar is.

Preventief Design: AI-bedrijven moeten hun producten zo ontwerpen dat het genereren van dit materiaal technisch onmogelijk wordt gemaakt.

Platformbeheer: Sociale media en digitale platforms moeten investeren in detectietechnologie om verspreiding direct te blokkeren in plaats van pas achteraf te verwijderen.

Nederlandse aanpak

In het nieuwe Nederlandse coalitieakkoord van 2026 is de aanpak van seksuele deepfakes inmiddels opgenomen. De overheid wil de wetgeving actualiseren en een laagdrempelig centraal meldpunt oprichten waar slachtoffers terecht kunnen voor hulp bij aangiftes en verwijderverzoeken. UNICEF Nederland pleit er bij het kabinet-Jetten voor om kinderen hierbij als specifieke, kwetsbare doelgroep mee te nemen, zodat hun digitale veiligheid ook in de wet verankerd wordt.

Infinity 01-2026 BW + BN Datto 01 2026 BW + BN periode 1
Infinity 01-2026 BW + BN