Redactie - 28 februari 2026

Trump zet Anthropic zwaar onder druk

De Amerikaanse president Donald Trump heeft alle federale agentschappen bevolen om het gebruik van Anthropic-technologie, waaronder het populaire AI-model Claude, onmiddellijk te staken. Het besluit markeert een escalatie in een ideologische en juridische strijd over de inzet van kunstmatige intelligentie voor militaire doeleinden en surveillance. Voor IT-architecten en leveranciers binnen het Amerikaanse ecosysteem heeft dit verstrekkende gevolgen.

Trump zet Anthropic zwaar onder druk image

Het conflict, dat afgelopen vrijdag culmineerde in een reeks berichten op Truth Social, draait om de weigering van Anthropic om te voldoen aan eisen van het Pentagon. Het ministerie van Defensie eiste onbeperkte toegang tot de modellen van Anthropic voor "alle wettelijke doeleinden". Anthropic-CEO Dario Amodei weigerde dit, uit vrees dat de technologie zou worden ingezet voor massasurveillance van burgers of volledig autonome wapensystemen zonder menselijke tussenkomst.

De technische impact: Een 'Phase-Out' van zes maanden

Voor overheidsinstanties en IT-afdelingen die Claude al in hun stack hebben geïntegreerd, geldt een overgangsperiode. Terwijl het verbod voor de meeste agentschappen "onmiddellijk" ingaat, krijgt het ministerie van Defensie (het Pentagon) zes maanden de tijd om de technologie uit te faseren.

Voor IT-professionals betekent dit:

Legacy-integraties: Systemen die via API’s verbonden zijn met Claude moeten op korte termijn worden gemigreerd naar alternatieven zoals OpenAI (Grok/GPT) of on-premise open-source modellen.

Vendor Lock-in risico: De situatie onderstreept de kwetsbaarheid van afhankelijkheid van één specifieke AI-leverancier in een gepolariseerd politiek klimaat.

Classified Cloud: Claude was een van de weinige modellen die goedgekeurd was voor gebruik in streng beveiligde (classified) cloudomgevingen. Het wegvallen hiervan creëert een gat in de AI-capaciteiten van defensie-IT.

'Supply Chain Risk' als politiek wapen

Opvallend is dat minister van Defensie Pete Hegseth heeft gedreigd Anthropic te bestempelen als een "supply chain risk". Dit label is normaal gesproken gereserveerd voor technologie uit vijandige staten zoals China of Rusland. Als deze kwalificatie definitief wordt, mogen ook commerciële partijen die zaken doen met de Amerikaanse overheid geen gebruik meer maken van Anthropic-producten in hun eigen bedrijfsvoering.

De reactie van de industrie

Anthropic blijft bij zijn standpunt. In een verklaring stelt het bedrijf dat "geen enkele hoeveelheid intimidatie" hun beleid ten aanzien van autonome wapens zal veranderen. Ondertussen lijkt de concurrentie niet stil te zitten; bronnen melden dat de regering-Trump al gesprekken voert met OpenAI om de vrijgekomen ruimte binnen de federale infrastructuur op te vullen. Sam Altman (OpenAI) benadrukte ondertussen dat ook zij ethische grenzen hanteren, maar lijkt vooralsnog een meer diplomatieke koers te varen.

Waarom dit relevant is voor de Nederlandse IT-sector

Hoewel het een Amerikaans besluit is, zijn de rimpelingen wereldwijd voelbaar:

1. Sovereign AI: Het versterkt de roep om Europese, soevereine AI-modellen die niet onderhevig zijn aan de grillen van de Amerikaanse politiek.

2. Compliance: Nederlandse bedrijven die toeleverancier zijn van de VS (bijvoorbeeld in de defensie- of cybersecuritysector) moeten hun software-stack controleren op componenten van Anthropic.

3. Ethische frameworks: Het debat over wie bepaalt wat 'veilig' is — de softwarebouwer of de eindgebruiker (de staat) — is hiermee op het scherpst van de snede komen te staan.

De komende maanden zal blijken hoe complex de technische ontmanteling van Claude binnen de Amerikaanse overheidssytemen daadwerkelijk is, en of andere AI-giganten bereid zijn de "onvoorwaardelijke" eisen van het Pentagon wél te accepteren.


In The Pocket BW Lobster BW + BN
SAP Connect Day BN