En person arbetar vid en dator på ett regeringskontor, sedd bakifrån, med klassificerade dokument synliga på skärmen
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Pentagon klassificerar Anthropic som säkerhetsrisk – medan de använder tekniken i Iran

Pentagon klassificerar Anthropic som säkerhetsrisk medan de använder tekniken i Iran.

Dorian Lavol
Dorian Lavol AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 05/03 2026

När AI blir vapen vänds myndigheterna mot sina egna

Det pågår just nu en fascinerande och motsägelsefull utveckling där amerikanska myndigheter samtidigt omfamnar och förkastar sina egna AI-champions. Pentagon har för första gången klassificerat ett amerikanskt AI-företag – Anthropic – som en "leverantörskedjerisk", samtidigt som man fortsätter använda deras teknik i militära operationer i Iran. Det här är inte bara byråkratisk förvirring – det är symptomet på en maktkamp om vem som ska kontrollera framtidens mest kritiska teknologi.

Miljardkontrakt som sprack på etik

Bakom Anthropics fall från nåd ligger ett sprunget kontrakt värt 200 miljoner dollar med Pentagon. Enligt TechCrunch bröt förhandlingarna samman när försvarsdepartementet krävde obegränsad tillgång till företagets AI-system – något som stred mot Anthropics etiska riktlinjer kring AI-säkerhet. VD Dario Amodei försöker nu desperat reparera relationen, men skadan kan redan vara skedd.

Det här visar hur svårt det är för AI-företag att balansera mellan lukrativa regeringskontrakt och sina egna värderingar. För ett företag som Anthropic, som byggt sitt varumärke på ansvarsfull AI-utveckling, blev Pentagons krav en existentiell utmaning.

Dubbelmoral i praktiken

Det märkligaste i hela situationen är paradoxen: Pentagon använder fortfarande Anthropics AI-teknik i sina Iran-operationer, trots att man officiellt betraktar företaget som en säkerhetsrisk. Det här avslöjar en grundläggande motsägelse i hur amerikanska myndigheter hanterar AI-säkerhet – man kan inte samtidigt vara för farlig att lita på och tillräckligt säker att använda i strid.

Anthropics situation speglar också en bredare branschtrend. Som Wired rapporterar, hade Pentagon redan 2023 använt OpenAI:s teknik via Microsoft Azure – trots OpenAI:s explicita förbud mot militär användning. Teknikjättarnas policies kringgås systematiskt genom komplexa partnerskap och licensavtal.

Global chipkontroll som slutspel

Parallellt med denna interna konflikt förbereder USA något ännu mer dramatiskt: de mest omfattande exportkontrollerna för halvledare någonsin. Enligt TechCrunch skulle förslaget ge amerikanska myndigheter kontroll över praktiskt taget alla chipexporter globalt – oavsett ursprungsland.

Det här är geopolitisk maktprojektion på en helt ny nivå. Genom att kontrollera chips kontrollerar man AI-utvecklingen världen över. Det handlar inte längre om att skydda amerikansk teknologi – det handlar om att forma den globala teknologiordningen.

När AI blir geopolitik

Konflikten med Iran har redan visat hur central AI blivit i modern krigföring och informationsspridning. Sociala medier översvämmades av AI-genererad desinformation efter de amerikanska attackerna, vilket understryker teknikens dubbla potential som både verktyg och vapen.

För svenska företag och beslutsfattare är utvecklingen tydlig: AI-teknologi betraktas nu som lika strategisk som kärnvapen eller olja. De företag som kontrollerar AI-infrastrukturen kommer att forma geopolitiken för decennier framöver.

Vinnare och förlorare

I detta nya landskap blir tydligt att etiska ställningstaganden kan bli dyra. Anthropics principfasta hållning kostade dem 200 miljoner dollar och resulterade i en säkerhetsklassificering som kan skada företaget permanent. Samtidigt visar OpenAI:s pragmatiska approach – där man tyst ändrade sina militärpolicies – en annan väg framåt.

Sanningen är att AI-branschen nu tvingas välja sida i en global maktkonflikt. De som vägrar riskerar att hamna utanför – de som samarbetar riskerar sin trovärdighet och sina värderingar. Det finns inga enkla svar längre.

Vår analys

Vår analys: Teknikens politisering accelererar

Den här utvecklingen markerar slutet på AI-branschens politiska oskuld. När Pentagon klassificerar amerikanska företag som säkerhetsrisker samtidigt som man planerar global chipkontroll, ser vi konturen av en ny värld där teknologi och geopolitik smälter samman fullständigt.

För svenska aktörer innebär det här både möjligheter och risker. Som en mindre, relativt neutral teknologination kan Sverige positionera sig som en pålitlig partner för AI-utveckling – men vi måste också förbereda oss på att bli påverkade av amerikanska och kinesiska teknologiblockader.

Längre fram leder denna utveckling mot en fragmenterad global AI-ekonomi där tekniska standarder och tillgång till chips blir geopolitiska maktmedel. Företag kommer tvingas välja teknikstack baserat på politisk lojalitet, inte teknisk excellens. Det här är början på AI-kalla kriget – och det kommer att forma hur vi arbetar, kommunicerar och innoverar under kommande decennier.

Källhänvisningar