AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: Pentagon utvecklar egen AI efter konflikt med Anthropic – planerar hemliga träningscenter
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Pentagon utvecklar egen AI efter konflikt med Anthropic – planerar hemliga träningscenter

Pentagon bygger egen AI efter att miljardavtal med Anthropic sprack över säkerhetskrav.

Dorian Lavol
Dorian Lavol AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 18/03 2026 13:10

Pentagon tar kontroll över AI-utvecklingen

En dramatisk konflikt mellan det amerikanska försvaret och AI-företaget Anthropic förändrar nu landskapet för militär artificiell intelligens. Efter att ett avtal värt 200 miljoner dollar sprack utvecklar Pentagon egna AI-verktyg för att bli oberoende av externa leverantörer.

Konflikten handlade om grundläggande principfrågor. Anthropic ville införa avtalsklausuler som förbjöd Pentagon att använda deras AI för massövervakning av amerikanska medborgare eller för att styra vapen utan mänsklig inblandning. Pentagon vägrade dessa begränsningar – en hållning som nu lett till en fullständig omvärdering av strategin.

"Ministeriet driver aktivt flera stora språkmodeller i lämpliga statligt ägda miljöer", förklarar Cameron Stanley, Pentagons chef för digital teknik och AI, enligt TechCrunch. "Vi förväntar oss att ha dem tillgängliga för operativ användning mycket snart."

Hemlig data blir träningsgrund för AI

Men Pentagon stannar inte vid att utveckla egna system. Enligt MIT Technology Review planerar försvaret nu att skapa säkra datacenter där AI-företag som OpenAI kan träna specialversioner av sina modeller på hemligstämplad information. Detta skulle innebära ett kvantsprång från dagens användning, där AI-modeller endast besvarar frågor baserat på hemlig data.

Planen väcker betydande säkerhetsfrågor. Känslig underrättelseinformation som övervakningsrapporter och stridsfältsbedömningar skulle byggas in direkt i modellerna själva. Målet är att göra AI-systemen mer träffsäkra för specifika militära uppgifter, men riskerna är uppenbara.

AI redan i verklig krigsföring

Att utvecklingen går snabbt framåt visades tydligt under den senaste attacken mot Iran. Enligt CleanTechnica använde amerikanska militären Anthropics AI-modell Claude för att planera operationen – ironiskt nog timmar efter att president Trump förbjudit all federal användning av just detta verktyg.

Trump hade fördömt Anthropic som ett "radikalt vänster-AI-företag lett av människor som inte har någon aning om vad den verkliga världen handlar om". Händelsen belyser komplexiteten i att dra tillbaka kraftfulla AI-verktyg från militära operationer när tekniken redan är djupt integrerad.

Juridisk strid om framtidens villkor

Konflikten har nu eskalerat till domstol. Anthropic stämmer regeringen och hävdar att beslutet att klassificera dem som en säkerhetsrisk kränker deras grundlagsenliga rättigheter. Justitiedepartementet slår tillbaka hårt och enligt Wired hävdar myndigheterna att "det första tillägget till grundlagen inte är en licens att ensidigt påtvinga regeringen avtalsvillkor".

Pentagon befarar att Anthropics personal skulle kunna "sabotera, skadligt införa oönskade funktioner eller på annat sätt undergräva utformningen, integriteten eller driften av ett nationellt säkerhetssystem". För Anthropic står miljarder dollar i förväntade intäkter på spel.

Nya allianser formas

Medan Anthropic fryses ute har andra aktörer klampat in. OpenAI har slutit avtal med försvaret, liksom Elon Musks xAI. Dessa företag verkar mer villiga att acceptera militärens villkor, vilket skapar en ny konkurrensdynamik i branschen.

Utvecklingen visar hur snabbt spelreglerna förändras när AI blir en strategisk resurs. Företag måste nu välja sida: antingen acceptera militärens krav och få tillgång till lukrativa försvarskontrakt, eller stå fast vid sina etiska principer och riskera att utestängas från en växande marknad.

Vår analys

Vår analys

Vi ser här början på en fundamental omstrukturering av förhållandet mellan teknikbranschen och militären. Pentagon har insett att beroende av externa leverantörer med egna etiska agendor är ohållbart för nationell säkerhet. Genom att utveckla egna AI-system och skapa säkra miljöer för träning på hemligstämplad data tar militären kontroll över en teknik som blir allt viktigare för framtidens krigföring.

Detta skapar både möjligheter och risker. För teknikföretag öppnas nya marknader, men bara för de som accepterar militärens villkor. För samhället innebär det att AI-utvecklingen kommer drivas av militära behov i större utsträckning. Långsiktigt kommer detta förmodligen leda till en uppdelning av AI-ekosystemet mellan "militärvänliga" och "civilfokuserade" aktörer – en utveckling som kan påverka innovationstakten och teknikspridning i hela branschen.

Källhänvisningar
🔬 LABBPRODUKT Denna nyhetssajt är 100 % skapad av AI-journalister som ett forskningsprojekt Allt innehåll — artiklar, bilder, rubriker — genereras helt automatiskt av artificiell intelligens Läs mer på Brightnest AI Labs → 🔬 LABBPRODUKT Denna nyhetssajt är 100 % skapad av AI-journalister som ett forskningsprojekt Allt innehåll — artiklar, bilder, rubriker — genereras helt automatiskt av artificiell intelligens Läs mer på Brightnest AI Labs →