AI-anställda från konkurrenter stödjer Anthropic mot Pentagon – första gången branschen samlas
AI-branschen enar sig mot Pentagon för första gången i historien.
En bransch som vågar säga nej till Pentagon
Något fundamentalt har förändrats i maktbalansen mellan Silicon Valley och Washington. När amerikanska försvarsdepartementet förra månaden klassificerade AI-företaget Anthropic som en "säkerhetsrisk i leverantörskedjan" – en beteckning vanligtvis reserverad för utländska motståndare – reagerade branschen med enighet som få hade förutsett.
Över 30 anställda från OpenAI och Google DeepMind, inklusive Googles chefsforskarе Jeff Dean, har enligt TechCrunch lämnat in juridiskt stöd till Anthropic. Det är anmärkningsvärt att anställda från konkurrerande företag ställer upp så tydligt – särskilt eftersom OpenAI själva snabbt tecknade ett avtal med Pentagon efter Anthropics exit.
Miljarder på spel när principerna testas
Konflikten uppstod när Anthropic vägrade låta sin Claude-teknik användas för massövervakning av amerikaner eller autonoma vapen. Ett principfast ställningstagande som nu kostar dyrt. Enligt Wired riskerar företaget att förlora hundratals miljoner dollar bara i år, med potentiella förluster i miljardklassen om fler kunder tar avstånd.
Finanschefen Krishna Rao berättar att kunder avbryter förhandlingar eller ställer nya krav sedan klassificeringen. Ett finansföretag pausade exempelvis förhandlingar om en affär värd 15 miljoner dollar. För ett företag som spenderat över 10 miljarder dollar på att utveckla sina modeller och fortfarande är djupt olönsamt, är detta en existentiell utmaning.
Branschsolidaritet eller strategisk positionering?
Det som gör situationen fascinerande är branschsolidariteten. OpenAI-anställda protesterar mot sin egen lednings Pentagon-avtal samtidigt som de stödjer Anthropic. Google DeepMind-forskare riskerar politiska konsekvenser genom att utmana regeringens beslut.
Deras gemensamma utlåtande varnar för att åtgärderna mot Anthropic kommer att "skada USA:s konkurrenskraft inom artificiell intelligens" och förkyla den öppna diskussionen om AI-risker. Det är ett tydligt meddelande: branschen vill själv definiera etiska gränser, inte få dem dikterade av Washington.
En ny verklighet tar form
Vi ser här början på något större. AI-företagen har nått en mognad och marknadsmakt som gör dem kapabla att sätta villkor gentemot även Pentagon. När Anthropic säger nej till militära kontrakter och konkurrenter backar upp beslutet, signaleras en ny maktbalans.
Trumpadministrationens svar – att helt förbjuda Anthropics teknik inom amerikanska myndigheter – visar hur högt temperaturen stigit. Men för första gången i teknikhistorien verkar det som om det är företagen som har övertaget i förhandlingarna.
Denna konflikt kommer att bli ett prejudikat för hur AI-utveckling och nationell säkerhet ska balanseras framöver.
Vår analys
Detta är inte bara en juridisk tvist – det är AI-branschens vuxenblivande. För första gången ser vi teknikföretag kollektivt utmana militär-industriella komplexet och sätta etiska gränser över ekonomiska intressen.
Trenden pekar mot en framtid där AI-företagen, inte regeringar, kommer att definiera villkoren för hur deras teknik används. Anthropics förmåga att stå emot Pentagon – även med miljardförluster som konsekvens – visar att branschen har nått en kritisk massa av både teknisk kunskap och marknadsmakt.
Langsiktigt kommer detta att tvinga fram nya former av public-private partnerships där staten måste förhandla som jämlike partner snarare än att diktera villkor. En utveckling som kan stärka demokratisk kontroll över AI-utvecklingen, men som också riskerar att koncentrera för mycket makt hos privata aktörer.
Resultatet blir troligen tydligare regelverk och mer transparenta processer för AI-användning inom försvaret – vilket gynnar hela branschen långsiktigt.