Anthropic till Pentagon: "Vi tar bort Claude hellre än att låta er använda det för massövervakning"

Varför vägrar Anthropic (Claude) arbeta med Pentagon?

Anthropic vägrar Pentagon: "Vi kan inte i gott samvete acceptera deras krav"

Anthropic, företaget bakom AI-verktyget Claude, har offentligt backat upp mot det amerikanska försvarsdepartementet (DoD) efter krav på att ta bort säkerhetsskydd kring hur Claude får användas. VD Dario Amodei är tydlig: massövervakning och autonoma vapensystem är inte förhandlingsbara.

Vad hände mellan Anthropic och Pentagon?

Konflikten eskalerade efter ett möte mellan Amodei och försvarsminister Pete Hegseth, där Pentagon krävde att Anthropic skulle acceptera vad man kallade "all laglig användning" av Claude. Bakom den formuleringen dolde sig enligt Anthropic två specifika och kontroversiella användningsområden:

  • Massövervakning av amerikanska medborgare

  • Fullt autonoma vapensystem – det vill säga AI-styrda vapen utan mänsklig kontroll

Mötet avslutades med ett hot från Pentagon om att utesluta Anthropic från försvarets leverantörskedja.

Amodeis svar var rakt: "Dessa hot förändrar inte vår position: vi kan inte i gott samvete acceptera deras begäran."

Anthropics röda linjer kring Claude

Anthropic har sedan länge byggt sin verksamhet kring konceptet "ansvarsfull AI" – och den konflikten med Pentagon är i praktiken ett test av hur seriöst det löftet är.

Amodei argumenterade på flera punkter:

Om massövervakning: AI-system som Claude kan, om de används utan begränsningar, sätta samman spridd och till synes oskyldig data till en detaljerad bild av en persons hela liv – automatiskt och i massiv skala. Anthropic stöder underrättelsearbete inom lagens ramar, men anser att massövervakning av den egna befolkningen är oförenligt med demokratiska värderingar.

Om autonoma vapensystem: Dagens AI-modeller, hur avancerade de än är, är enligt Amodei helt enkelt inte tillförlitliga nog för att styra vapen utan mänsklig inblandning. Utan ordentliga kontrollmekanismer – som ännu inte existerar – riskerar sådana system att sätta både soldater och civila i fara.

Anthropic uppgav dessutom att man erbjudit sig att samarbeta med Pentagon om forskning och utveckling för att förbättra tillförlitligheten hos AI-system i försvarssammanhang. Erbjudandet avvisades.

Pentagons reaktion och hot

Försvarsministeriet var inte sena att svara. Emil Michael, den amerikanska biträdande försvarsministern, gick till personlig attack mot Amodei på X och hävdade att han vill "kontrollera den amerikanska militären personligen."

I en intervju med CBS News argumenterade Michael för att de användningsområden Anthropic motsätter sig redan är förbjudna enligt lag och Pentagons egna riktlinjer – och menade att avtalsformulering inte borde behövas.

Pentagon ska också ha hotat med att aktivera Defense Production Act, en lag som ger presidenten befogenhet att tvinga företag att möta nationella försvarsbehov. Dessutom hotade man att stämpla Anthropic som en "supply chain risk" – ett säkerhetsmässigt ostabilt företag – vilket effektivt skulle stänga dem ute från statliga kontrakt.

En tidigare anonym DoD-tjänsteman sade till BBC att Hegseths grunder för dessa åtgärder var "extremt svaga."

Bakgrund: Claude och Venezuela

Spänningarna ska enligt uppgifter ha pågått i månader – redan innan det blev känt att Claude användes som en del av en amerikansk operation för att gripa Venezuelas president Nicolás Maduro. Det antyder att Pentagons ambitioner med AI-verktyget sträcker sig längre än vad som hittills varit offentligt känt.

Vad händer nu?

Anthropic uppgav att en uppdaterad kontraktsskrivning från Pentagon – mottagen dagen efter mötet – i praktiken inte innebar några reella framsteg. Ny formulering som presenterades som en kompromiss innehöll juridisk text som ändå skulle tillåta att säkerhetsskydden åsidosattes.

"Trots [försvarsdepartementets] senaste offentliga uttalanden har dessa snäva skyddsåtgärder varit kärnan i våra förhandlingar i månader," sade en talesperson för Anthropic.

Om Pentagon väljer att avsluta samarbetet är Anthropic beredd: "Vi kommer att arbeta för en smidig övergång till en annan leverantör."

Vad betyder detta för AI-branschen?

Det här är inte bara en strid mellan ett teknikföretag och en myndighet. Det är ett vägval för hela AI-industrin.

Anthropics hållning är ett av de mest konkreta exemplen hittills på att ett ledande AI-bolag faktiskt är villigt att ge upp intäkter och statliga kontrakt för att försvara sina etiska riktlinjer. Det sätter press på andra aktörer – och skapar en branschdebatt om var gränsen går för vad AI-verktyg bör göra.

För svenska och europeiska företag som arbetar med AI-verktyg är frågan relevant: vilka krav bör man ställa på de AI-leverantörer man väljer att bygga sina system på?

Vanliga frågor om Anthropic och Pentagon-konflikten

Vad är Anthropic? Anthropic är ett amerikanskt AI-säkerhetsföretag grundat 2021, känt för AI-modellen Claude. Företaget fokuserar på att utveckla AI-system som är säkra, pålitliga och transparenta.

Vad är Claude? Claude är Anthropics AI-assistent och konkurrerar med verktyg som ChatGPT och Gemini. Claude används av företag och privatpersoner för allt från skrivhjälp till komplex analys.

Varför vägrar Anthropic Pentagon? Anthropic anser att användning av Claude för massövervakning av medborgare eller för fullt autonoma vapensystem strider mot demokratiska värderingar och mot företagets etiska riktlinjer – oavsett om det är lagligt eller inte.

Vad är Defense Production Act? Det är en amerikansk lag som ger presidenten befogenhet att kräva att privata företag levererar varor eller tjänster till landets försvar, om det anses nödvändigt för nationell säkerhet.

Kan Pentagon tvinga Anthropic att samarbeta? I teorin kan Defense Production Act ge presidenten den befogenheten. Huruvida det faktiskt är tillämpligt i det här fallet bedöms av oberoende experter som juridiskt svagt grundat.

Hela intervjun hittar du här:

Vill du hålla koll på de senaste nyheterna om AI-verktyg och hur de påverkar företag och samhälle? Följ vårt nyhetsbrev

Skriven av
Aival.se

Datum: 2026-03-05

Läs mer:

Gå med i vårat nyhetsbrev!

Prenumerera på vårt nyhetsbrev och håll dig uppdaterad om det senaste inom AI!

Gå med i vårat nyhetsbrev!

Prenumerera på vårt nyhetsbrev och håll dig uppdaterad om det senaste inom AI!