Kabinet hakt knoop door over AI-toezicht
Het kabinet heeft de knoop doorgehakt over hoe het toezicht op kunstmatige intelligentie (AI) in Nederland wordt ingericht. In een brief aan de Tweede Kamer zet staatssecretaris Aerdts (foto), van Economische Zaken de koers uit: geen centrale ‘AI-autoriteit’, maar een samenspel van tien bestaande toezichthouders onder coördinatie van de Autoriteit Persoonsgegevens (AP) en de Rijksinspectie Digitale Infrastructuur (RDI).
Met de komst van de Europese AI-verordening krijgt Nederland te maken met strenge regels voor een technologie die bijna elke sector raakt. Of het nu gaat om algoritmes die sollicitanten beoordelen, medische apparatuur of chatbots: de overheid wil dat AI veilig en betrouwbaar is. "Kansen kunnen alleen benut worden als er vertrouwen bestaat vanuit burgers en bedrijven," aldus Aerdts.
Het risicomodel: Hoe gevaarlijker, hoe strenger
De nieuwe regels werken volgens een verkeerslichtsysteem. Bepaalde AI-toepassingen, zoals systemen die mensen manipuleren of gezichten op grote schaal ongericht scannen, worden volledig verboden. Voor 'hoog-risico' systemen — denk aan AI in het onderwijs, de zorg of bij de overheid — gelden strenge eisen op het gebied van databeheer en transparantie. Simpele chatbots hoeven alleen duidelijk te maken dat je met een machine praat.
De verdeling van de macht
Het kabinet wijst tien markttoezichthouders aan. De gedachte is: organisaties moeten contact houden met de waakhond die ze al kennen.
- Financiële sector: De Nederlandsche Bank (DNB) en de Autoriteit Financiële Markten (AFM) houden toezicht op AI in bankzaken.
- Gezondheidszorg: De Inspectie Gezondheidszorg en Jeugd (IGJ) controleert AI in medische hulpmiddelen.
- Infrastructuur: De Rijksinspectie Digitale Infrastructuur (RDI) en de Inspectie Leefomgeving en Transport (ILT) waken over kritieke systemen.
Voor gebieden waar nog geen duidelijke toezichthouder was, zoals bij algemene algoritmes of verboden praktijken, wordt de Autoriteit Persoonsgegevens (AP) de centrale speler. De AP krijgt binnen de eigen organisatie een speciale, onafhankelijke poot voor AI-toezicht.
Zorgvuldigheid boven snelheid
Opvallend is dat het kabinet bewust vertraging oploopt. Nederland zal de Europese deadline voor de uitvoeringswet waarschijnlijk niet halen. Volgens Aerdts is dit een bewuste keuze voor kwaliteit: "Het kabinet heeft ervoor gekozen om het toezicht zorgvuldig vorm te geven."
Hoewel de waakhonden pas formeel kunnen bijten als de nationale wet rond is, gelden de Europese regels in theorie al wel direct. Bedrijven en ontwikkelaars kunnen dus niet achteroverleunen.
Hoe nu verder?
De plannen liggen momenteel ter consultatie op internet, waar burgers en experts gedurende zes weken hun mening kunnen geven. Ondertussen moeten de toezichthouders in kaart brengen hoeveel extra geld en personeel ze nodig hebben om deze enorme nieuwe taak uit te voeren.
Het doel blijft volgens het kabinet ongewijzigd: zorgen dat Nederland een digitale koploper blijft, waarbij technologische vooruitgang en publieke waarden hand in hand gaan.
De 4 categorieën van de AI-verordening:
| Categorie | Voorbeeld | Status |
| Onacceptabel risico | Social scoring, manipulatieve AI | Verboden |
| Hoog risico | AI bij werving/selectie, kritieke infra | Strenge eisen |
| Beperkt risico | Chatbots, deepfakes | Transparantieplicht |
| Minimaal risico | Spamfilters, AI in games | Vrij toegestaan |