AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: Anthropic stämmer Pentagon medan militären vill låta konstgjord intelligens rangordna attackmål
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Anthropic stämmer Pentagon medan militären vill låta konstgjord intelligens rangordna attackmål

Anthropic stämmer Pentagon medan militären vill AI-styra sina attackmål.

Dorian Lavol
Dorian Lavol AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 14/03 2026 02:37

När AI-utveckling krockar med nationell säkerhet

Vi bevittnar just nu en historisk kollision mellan två av USA:s mest strategiska intressen: AI-innovation och nationell säkerhet. Anthropic, företaget bakom Claude, har lämnat in stämningar mot Pentagon efter att ha klassificerats som säkerhetsrisk i leverantörskedjan – en klassificering som enligt företaget kan kosta dem miljarder dollar.

Enligt Wired har Anthropic lämnat in två separata stämningar, en i San Francisco och en i Washington DC, där de hävdar att regeringen kränkt deras yttrandefrihet och använt "sin enorma makt för att straffa ett företag för dess skyddade yttranden". Parallellt söker företaget ett tillfälligt förbud för att kunna fortsätta samarbeta med sina militära partners.

Militären satsar på AI-styrda attackbeslut

Samtidigt som denna juridiska strid pågår rapporterar MIT Technology Review att Pentagon aktivt överväger att använda generativa AI-system för att prioritera attackmål. Enligt deras källor skulle militären mata in listor över potentiella mål i AI-system som sedan analyserar informationen och rangordnar prioriteringar baserat på faktorer som flygplanens nuvarande position.

"Människor skulle fortfarande ansvara för att kontrollera och utvärdera resultaten och rekommendationerna", försäkrar en försvarskälla. Både OpenAI:s ChatGPT och xAI:s Grok skulle kunna användas för detta ändamål, eftersom båda företagen nyligen nått avtal för hemligstämplade sammanhang med Pentagon.

Denna utveckling kompletterar det befintliga Maven-initiativet från 2017, som använder datorseende för att analysera drönarmaterial. Den generativa AI:n skulle fungera som ett samtalsbaserat lager ovanpå Maven – ett sätt att snabbare hitta och analysera data när kritiska beslut ska fattas.

Djupare misstro mot statlig övervakning

Enligt The Verge handlar konflikten om mer än juridiska detaljer. Teknikpolitikexperten Mike Masnick pekar på en lång historia av hur regeringsadvokater tolkat lagar på sätt som utökar övervakningsmöjligheterna långt bortom ursprunglig avsikt. Detta mönster blev särskilt tydligt efter Edward Snowdens avslöjanden om NSA:s omfattande övervakningsprogram.

Den ekonomiska påverkan är massiv. Detta är första gången Anthropic öppet erkänt de ekonomiska konsekvenserna av konflikten. Företaget uppskattar att klassificeringen som säkerhetsrisk kan kosta dem hundratals miljoner, möjligen miljarder dollar, eftersom få aktörer vågar samarbeta med dem. Stödet från anställda på både OpenAI och Google, som lämnat in vänbrev till domstolen, visar att hela branschen känner sig hotad.

En bransch i förändring

Vad vi ser är inte bara en juridisk tvist – det är början på en fundamental omdefiniering av förhållandet mellan AI-utveckling och nationell säkerhet. Medan Pentagon aktivt planerar för AI-styrda militära beslut, kämpar samma myndighet mot de företag som utvecklar teknologin. Denna paradox skapar en ohållbar situation som kräver nya ramverk för samarbete.

För AI-branschen är det här en väckarklocka. Företag som tidigare fokuserat enbart på innovation måste nu navigera komplexa geopolitiska frågor och säkerhetspolitiska överväganden som kan avgöra deras framtida lönsamhet.

Vår analys

Vår analys

Detta markerar en avgörande vändpunkt för AI-branschens relation till staten. Vi ser början på en ny era där teknisk innovation inte längre kan utvecklas isolerat från säkerhetspolitiska överväganden.

Framöver kommer vi troligen se en uppdelning av AI-marknaden i civila och militära sfärer, med olika regelverk och samarbetsstrukturer. Företag kommer tvingas välja sida eller utveckla separata enheter för olika marknader.

Den strategiska risken för USA är påtaglig. Genom att klassificera ledande AI-företag som säkerhetsrisker riskerar Pentagon att driva innovation till andra länder eller skapa parallella utvecklingslinjer som undergräver amerikansk konkurrenskraft.

Lösningen kräver nya ramverk för samarbete mellan privat och offentlig sektor – ramverk som balanserar innovation, säkerhet och transparens. De företag och myndigheter som lyckas skapa dessa broar först kommer att dominera nästa fas av AI-utvecklingen.

Källhänvisningar