Witold Kepinski - 05 maart 2024

Cloudflare Firewall for AI voor beveiliging AI-toepassingen

Cloudflare kondigt de ontwikkeling aan van Firewall for AI, een nieuwe beschermingslaag die misbruik en aanvallen kan identificeren voordat ze Large Language Models (LLM's) bereiken en ermee knoeien.

Cloudflare Firewall for AI voor beveiliging AI-toepassingen image

Het betreft een AI-toepassing die de menselijke taal en andere soorten complexe data interpreteert. Gesteund door haar wereldwijde netwerk positioneert Firewall for AI Cloudflare als een securityleverancier die voorbereid is om de volgende golf van aanvallen in de AI-revolutie te bestrijden. Deze aanvallen zijn gericht op de functionaliteit, kritieke gegevens en bedrijfsgeheimen van LLM's.

Weinig IT-managers hebben vertrouwen dat hun organisaties goed zijn voorbereid om de risico's van AI aan te pakken. Als het gaat om het beschermen van LLM's, kan het een uitdaging zijn om vanaf het begin adequate beveiligingssystemen in te bouwen. Het is bijna onmogelijk om de gebruikersinteracties te beperken en de modellen liggen ook niet van tevoren vast, ze kunnen bijvoorbeeld verschillende outputs genereren, zelfs als ze dezelfde input krijgen. Als gevolg hiervan kunnen LLM's een weerloos doel worden voor kwaadwillenden, waardoor organisaties kwetsbaar worden voor geknoei met modellen, aanvallen en misbruik.

Met Cloudflare's Firewall for AI kunnen securityteams hun LLM-applicaties beschermen tegen mogelijke kwetsbaarheden die als wapen worden ingezet tegen AI-modellen. Cloudflare zegt klanten in staat stellen om:

  • Nieuwe bedreigingen snel te detecteren: Firewall for AI kan worden ingezet voor elke LLM die draait op Cloudflare's Workers AI. Door prompts van een gebruiker te scannen en te evalueren, kunnen pogingen om een model te misbruiken en gegevens te extraheren beter worden geïdentificeerd.
  • Bedreigingen automatisch te blokkeren, zonder menselijke interventie: Firewall for AI is gebouwd bovenop het wereldwijde netwerk van Cloudflare en zal dicht bij de eindgebruiker worden ingezet, waardoor modellen vrijwel onmiddellijk kunnen worden beschermd tegen misbruik.
  • Implementeer veiligheid by default, gratis: elke klant die een LLM draait op Cloudflare's Workers AI kan gratis worden beschermd door Firewall for AI, om toenemende problemen zoals prompt injection en datalekken te helpen voorkomen.

"Als er nieuwe soorten toepassingen opduiken, volgen er ook snel nieuwe soorten bedreigingen. Dat is niet anders voor AI-gebaseerde toepassingen", zegt Matthew Prince, mede-oprichter en CEO bij Cloudflare. "Met Cloudflare's Firewall for AI helpen we beveiliging vanaf het begin in te bouwen in het AI-landschap. We zullen een van de allereerste schilden voor AI-modellen bieden waarmee bedrijven hun voordeel kunnen doen met de mogelijkheden die deze technologie biedt, terwijl ze er tegelijkertijd voor zorgen dat ze beschermd zijn."