Kaspersky: zorg voor transparantie in AI-gebruik
Kaspersky roept op tot meer transparantie in het gebruik van kunstmatige intelligentie (AI). Hoewel AI aanzienlijke efficiëntieverbeteringen kan bieden en nieuw potentieel kan ontsluiten voor bedrijven en individuen, kan het ook worden misbruikt door cybercriminelen om malware te creëren en andere kwaadaardige activiteiten te vergemakkelijken.

Het securitybedrijf deed zijn oproep tijdens de conferentie Kaspersky Horizons, die plaatsvond van 30 juni tot 2 juli 2025 in Madrid. Uit een recent onderzoek van Kaspersky blijkt dat 52% van de bedrijven wereldwijd een verlies van vertrouwen vreest als ze hun bescherming tegen AI-aangedreven cyberaanvallen niet verbeteren. Daarnaast geeft 41% aan dat ze niet over de nodige externe expertise beschikken om zich effectief te beschermen tegen dergelijke scenario's. Kaspersky biedt specifieke aanbevelingen in hun 'Guidelines for Secure Development and Deployment of AI Systems', waarmee bedrijven AI veilig en verantwoord kunnen inzetten. De 'Principles of ethical use of AI systems in cybersecurity' vullen deze richtlijnen aan met ethische principes voor de ontwikkeling en het gebruik van AI in cybersecurity.
AI leidt tot zorgen
Kunstmatige intelligentie ontwikkelt zich snel. Kaspersky waarschuwt dat minder gesofisticeerde cybercriminelen AI al gebruiken voor het uitbreiden van hun kwaadaardige capaciteiten. Uit een recent onderzoek van Kaspersky blijkt dat de meeste bedrijven zich bewust zijn van deze gevaren: 58% van de bedrijven wereldwijd vreest verlies van vertrouwelijke gegevens en 52% vreest verlies van vertrouwen en financiële schade als ze hun bescherming tegen AI-aangedreven aanvallen niet verbeteren. Echter, de nodige kennis ontbreekt vaak: 41% van de respondenten geeft aan dat ze niet over relevante informatie van externe experts beschikken over huidige bedreigingen door AI-ondersteunde aanvallen.
Kaspersky pleit daarom voor duidelijke richtlijnen voor de ethische ontwikkeling en het gebruik van AI om manipulatie en misbruik effectief te voorkomen. In 2024 ondertekende Kaspersky de AI Pact van de Europese Commissie, een initiatief dat organisaties voorbereidt op de implementatie van de AI Act, het eerste alomvattende juridische kader voor AI wereldwijd, aangenomen door de Europese Unie (EU). In december van hetzelfde jaar presenteerde Kaspersky ook zijn richtlijnen voor de veilige ontwikkeling en implementatie van AI-systemen tijdens een workshop op het Internet Governance Forum (IGF) 2024 in Riyadh. Transparantie, veiligheid, menselijke controle en gegevensbescherming dienen als de belangrijkste principes en hoekstenen in dit streven.
Ethische AI
Jochen Michels, Director Public Affairs Europe bij Kaspersky, benadrukt het belang van ethische AI: "Ethische AI is de basis voor vertrouwen, naleving en duurzaam zakelijk succes. Het stelt bedrijven in staat om het risico op datalekken en AI-gebaseerde bedreigingen effectief te minimaliseren, terwijl ze betrouwbaar voldoen aan regelgevende vereisten zoals de EU AI Act. In een steeds verder gedigitaliseerde wereld is het verantwoorde gebruik van AI niet alleen een technologische kwestie, maar ook een zaak van bedrijfsintegriteit en levensvatbaarheid op lange termijn. Onze richtlijnen voor de veilige ontwikkeling en implementatie van kunstmatige intelligentie, evenals onze principes voor het ethische gebruik van AI-systemen in cybersecurity, stellen bedrijven in staat om AI zowel verantwoord als veilig te gebruiken – zichzelf beschermend tegen AI-gerelateerde bedreigingen zonder de voordelen van de technologie op te offeren."
Liliana Acosta, oprichter en CEO van Thinker Soul, een adviesbureau dat ethiek, kritisch denken en filosofie toepast om bedrijven te begeleiden door digitale transformatie, voegt toe: "Kunstmatige intelligentie wordt steeds vaker gebruikt om cybersecurity te versterken, van het opsporen van bedreigingen tot het voorspellen van aanvallen. Maar wie beslist hoe ver deze tools moeten gaan? Wanneer inbreuken plaatsvinden, vallen de gevolgen vaak het hardst bij individuen en kwetsbare groepen, terwijl grotere organisaties mogelijk minder gevolgen ondervinden. We hebben systemen nodig die niet alleen effectief zijn, maar ook eerlijk en ethisch, waardoor macht, verantwoordelijkheid en schade rechtvaardig worden gedeeld in onze digitale wereld."
Clément Domingo, cybersecurity-evangelist, deelt zijn bevindingen en ervaringen: "De afgelopen maanden heb ik gezien hoe cybercriminelen AI drastisch gebruiken. Ze begrijpen in welke mate het een game-changer is en ze gebruiken het al met succes om hun aanvallen te verbeteren. Daarom is het van het grootste belang dat bedrijven AI nu ook in hun verdedigingsstrategieën opnemen om hun algehele beveiligingsmaatregelen te versterken. Hierbij is het cruciaal om de methoden van cybercriminelen te begrijpen – soms zelfs door ons in hun schoenen te plaatsen – om effectiever tegen hen te kunnen vechten. In dit opzicht kan AI, als het wijs en verantwoord wordt gebruikt, worden ingezet als een krachtig hulpmiddel om waardevolle gegevens, infrastructuur, privacy en bedrijven als geheel te beschermen."
Transparantie, veiligheid, controle en gegevensbescherming
Om de adoptie van ethische AI te ondersteunen deelt Kaspersky richtlijnen en principes voor het verantwoorde gebruik ervan. De 'Guidelines for Secure Development and Deployment of AI Systems' behandelen belangrijke aspecten van het ontwikkelen, implementeren en gebruiken van AI-systemen, waaronder ontwerp, beveiligingsbest practices en integratie, zonder zich te richten op de ontwikkeling van fundamentele modellen. Deze omvatten:
- Bewustzijn en training in cybersecurity: Kaspersky benadrukt het belang van leidinggevende ondersteuning en gespecialiseerde training voor werknemers. Personeel moet AI-gerelateerde bedreigingen begrijpen door middel van regelmatig bijgewerkte trainingen die nieuwe risico's weerspiegelen.
- Dreigingsmodellering en risicobeoordeling: Proactieve dreigingsmodellering helpt kwetsbaarheden vroegtijdig te identificeren. Kaspersky benadrukt het belang van het beoordelen van risico's zoals datavergiftiging en modelmisbruik.
- Infrastructuurbeveiliging (cloud): Sterke cloudbeveiliging is essentieel. Kaspersky beveelt encryptie, netwerksegmentatie, zero-trust-principes en regelmatige patching aan om inbreuken te voorkomen.
- Beveiliging van de toeleveringsketen en gegevens: AI-tools van derden brengen risico's voor gegevens en privacy met zich mee. Kaspersky adviseert strikte audits, het gebruik van safetensors en sterke privacybeleid om misbruik te voorkomen.
- Testen en validatie: Continue modelvalidatie detecteert problemen zoals data drift en adversarial attacks. Kaspersky beveelt monitoring, dataset partitioning en review van besluitlogica aan.
- Bescherming tegen ML-specifieke aanvallen: Om aanvallen zoals prompt injection of adversarial inputs te voorkomen, stelt Kaspersky voor om te trainen met adversarial examples, anomaliedetectie en modeldistillatie.
- Regelmatige beveiligingsupdates en onderhoud: Frequente patching van AI-tools en deelname aan bug bounty-programma's helpen kwetsbaarheden aan te pakken en versterken de veerkracht.
- Naleving van internationale normen: Kaspersky benadrukt naleving van wereldwijde normen (bijv. GDPR, EU AI Act) en regelmatige audits om ervoor te zorgen dat aan juridische, ethische en privacyvereisten wordt voldaan.
Principles of ethical use of AI systems in cybersecurity
De 'Principles of ethical use of AI systems in cybersecurity' pleiten voor meer onderwijs en duidelijke normen gericht op transparantie, veiligheid, menselijke controle en gegevensbescherming, om de manipulatie en het misbruik van AI-toepassingen effectief te voorkomen. Deze principes omvatten:
- Transparantie: Het bekendmaken van het gebruik van AI/ML aan klanten; uitleggen hoe het werkt; het ontwikkelen van systemen die zo interpreteerbaar mogelijk zijn; en het introduceren van controlemechanismen om valide resultaten te garanderen.
- Veiligheid: Veiligheid prioriteren tijdens ontwikkeling en implementatie; specifieke veiligheidscontroles en red-teaming uitvoeren; afhankelijkheid van externe training data minimaliseren; multi-layered protection strategieën implementeren; en de voorkeur geven aan cloud-based oplossingen met passende beschermingsmaatregelen.
- Menselijke controle: Zorgen voor menselijk toezicht op alle AI/ML-systemen; continue monitoring door specialisten; en het combineren van algoritmen met menselijke expertise.
- Gegevensbescherming: Respecteren van persoonlijke gegevensprivacy; beperken en verminderen van gegevensverwerking; pseudonymisatie of anonimisatie; zorgen voor gegevensintegriteit; en het toepassen van technische en organisatorische maatregelen om privacy te beschermen.