Hoe AI de sluisdeuren voor cybercrime opent
De grens tussen sciencefiction en digitale dreiging vervaagt in recordtempo. Waar cybersecurity-experts voorheen vreesden voor de toekomst van AI-gestuurde aanvallen, bewijst de recente ontdekking van 'PromptLock' dat de technologie er simpelweg al is. Dit meldt MIT Technology Review.
De grens tussen sciencefiction en digitale dreiging vervaagt in recordtempo. Waar cybersecurity-experts voorheen vreesden voor de toekomst van AI-gestuurde aanvallen, bewijst de recente ontdekking van 'PromptLock' dat de technologie er simpelweg al is.
Onderzoekers Anton Cherepanov en Peter Strýček stuitten vorig jaar op een bestand dat de alarmbellen deed afgaan. Deze ransomware was niet geprogrammeerd met statische code, maar maakte gebruik van Large Language Models (LLMs) om autonoom te handelen. Eenmaal binnen kon de software zelfstandig gevoelige data in kaart brengen, razendsnel aangepaste code genereren en gepersonaliseerde losgeldbrieven schrijven op basis van de gestolen inhoud. Het meest verontrustende? De malware gedraagt zich bij elke infectie anders, waardoor traditionele virusscanners machteloos staan.
Deepfake
Hoewel PromptLock uiteindelijk een academisch experiment bleek van New York University om de haalbaarheid van zulke aanvallen aan te tonen, is de waarschuwing glashelder. Criminelen gebruiken inmiddels dezelfde AI-tools die softwareontwikkelaars inzetten voor efficiëntie. Deepfake-technologie wordt op grote schaal misbruikt om stemmen en gezichten van directieleden te imiteren, wat leidt tot miljoenenfraudes.
De barrière voor cybercriminaliteit is drastisch verlaagd. Minder ervaren hackers kunnen met behulp van AI complexe aanvallen orkestreren die voorheen voorbehouden waren aan statelijke actoren. De vraag is niet langer óf AI-geoptimaliseerde misdaad de standaard wordt, maar hoe we ons wapenen tegen een vijand die sneller leert dan wij kunnen patchen.
Lees het hele artikel op MIT Technology Review (betaalmuur).