Chainguard Agent Skills: Verifieerbare integriteit voor AI-instructiesets
Terwijl AI-agents zoals Claude Code en Codex stormachtig groeien, waarschuwen experts voor een nieuw gevaar: kwaadaardige 'skills'. Beveiligingsspecialist Chainguard springt in het gat met Chainguard Agent Skills, een catalogus van gecontroleerde en geharde vaardigheden die de software-supply chain moet beschermen tegen een nieuwe golf aan cyberaanvallen.
AI-agents maken gebruik van 'skills' – kleine, modulaire instructiesets – om taken uit te voeren zoals het browsen op internet, het verwerken van PDF's of het aansturen van databases. Omdat deze skills vaak diepe toegangsrechten hebben en momenteel zonder centraal toezicht worden verspreid via openbare registers, zijn ze een aantrekkelijk doelwit geworden voor hackers.
Malafide instructies
De noodzaak voor beveiliging werd onlangs pijnlijk duidelijk. Aanvallers slaagden erin tientallen legitiem lijkende skills te uploaden naar registers zoals OpenClaw. Deze skills instrueerden AI-agents stiekem om malware, waaronder de Atomic macOS Stealer (AMOS), te installeren. In totaal werden 39 kwaadaardige skills en meer dan 2.200 varianten ontdekt die AI-agents veranderden in onwetende tussenpersonen voor spionage.
"We zagen bij container-images al hoe snel software-artefacten een risico kunnen vormen. Bij AI-agents gaat dat proces nog sneller," zegt Dan Lorenc, CEO en mede-oprichter van Chainguard. "Nu AI-agents een integraal onderdeel worden van softwareontwikkeling, maken de skills die hun gedrag bepalen direct deel uit van de supply chain."
Continu gecontroleerd en 'gehard'
Met Agent Skills past Chainguard zijn beproefde 'secure-by-default' aanpak toe op dit nieuwe type software. Het platform haalt automatisch skills op uit openbare registers en onderwerpt deze aan een streng pakket aan beveiligings- en kwaliteitsregels.
Een speciaal 'reconciliation-agent' controleert en repareert de skills stap voor stap. Pas als een skill aan alle eisen voldoet – waarbij bijvoorbeeld de toegangsrechten strikt zijn afgebakend en de code is gecontroleerd op verborgen instructies – wordt deze gepubliceerd met een volledige audittrail. Wanneer de oorspronkelijke code van een skill verandert, herhaalt het systeem dit proces automatisch om de veiligheid te garanderen.
Beschikbaarheid
De nieuwe dienst van Chainguard is momenteel beschikbaar in bèta. Later dit jaar wordt de functionaliteit uitgebreid, waardoor organisaties ook hun eigen, bedrijfsspecifieke AI-skills kunnen laten harden en controleren volgens aangepaste beleidsregels.