Pentagon stämplar AI-företag som säkerhetsrisk efter vägran att tillåta massövervakning
Pentagon stämplar AI-företag som säkerhetsrisk efter vägran att övervaka amerikaner.
Pentagon och AI-företagen i öppen konflikt – när etik möter nationell säkerhet
AI-branschen står inför sin mest avgörande etiska prövning hittills. Pentagon har klassificerat det amerikanska AI-företaget Anthropic som en "försörjningskedjerisk" – en beteckning vanligtvis reserverad för utländska motståndare – efter att företaget vägrade låta militären använda deras teknik för massövervakning av amerikaner.
Senatorn Elizabeth Warren kallar Pentagons agerande för ren hämnd. "Jag är särskilt oroad över att försvarsministeriet försöker tvinga amerikanska företag att ge ministeriet verktyg för att spionera på amerikanska medborgare", skriver Warren enligt TechCrunch. Klassificeringen innebär att alla företag som arbetar med Pentagon måste intyga att de inte använder Anthropics produkter eller tjänster.
Konflikten uppstod när Anthropic tydligt meddelade att de inte ville att deras AI-system skulle användas för massövervakning, och att tekniken inte var redo för målsökning eller skjutbeslut i dödliga autonoma vapen utan mänsklig inblandning. Pentagon menade att ett privat företag inte borde diktera hur militären använder teknik.
Men den här diskussionen kommer för sent. AI-krigföring är redan verklighet.
Sedan Google-anställdas protester mot Project Maven 2018 har utvecklingen accelererat dramatiskt. Det som började som oro över "krigets affärer" har utvecklats till aktiv användning av AI i amerikanska militäroperationer, rapporterar Wired. Maven Smart System, byggd av det kontroversiella företaget Palantir, används nu operativt.
I centrum för utvecklingen står marinöverste Drew Cukor, som drev igenom projektet trots intern motstånd. Viceamiral Frank Whitworth ifrågasatte tidigare starkt utvecklingen: "Vad händer efter en felaktig attack när vi står inför kongressens hårda frågor?" Han oroade sig för dokumentation och ansvarsskyldighet när AI involveras i målsökning.
Men efter Rysslands invasion av Ukraina har inställningen förändrats radikalt. Vid en sammankomst i september 2024 berömde samma Whitworth projektet han tidigare kritiserat.
Det här illustrerar den fundamentala förändring vi genomgår. Geopolitiska kriser accelererar AI-adoption inom försvaret, oavsett etiska invändningar. Medan amerikanska AI-företag brottas med sina moraliska ställningstaganden, utvecklar andra nationer sina militära AI-kapaciteter utan samma transparenta debatt.
Frågan är inte längre om AI kommer användas militärt – den används redan. Istället handlar det om vilka ramar och skyddsåtgärder som ska gälla, och hur vi balanserar nationell säkerhet mot grundläggande rättigheter.
Pentagons hårda linje mot Anthropic sänder en tydlig signal till branschen: medverka eller klassas som säkerhetsrisk. Detta kan skapa en farlig dynamik där endast företag villiga att kompromissa med etiska principer får tillgång till stora försvarskontrakt.
Samtidigt står andra teknikjättar som OpenAI, Google och Microsoft inför samma dilemma. Deras val kommer forma inte bara AI-utvecklingen, utan hela förhållandet mellan teknikbranschen och staten.
Vår analys
Vi bevittnar en avgörande vändpunkt för AI-branschen. Pentagons klassificering av Anthropic som säkerhetsrisk markerar slutet på den period då AI-företag kunde hålla militären på armlängds avstånd genom etiska invändningar.
Denna utveckling kommer accelerera polariseringen inom tekniksektorn. Företag måste nu välja sida: antingen acceptera militär användning av deras teknik, eller riskera att stängas ute från lukrativa försvarskontrakt. Detta kan leda till en uppdelning där "etiska" AI-företag fokuserar på civila marknader, medan andra specialiserar sig på försvarssektorn.
Paradoxen är att de företag som vägrar militär användning kanske bidrar till mindre säker AI-utveckling. Om endast företag utan starka etiska riktlinjer utvecklar militär AI, riskerar vi sämre skyddsåtgärder och ansvarsskyldighet.
Framöver kommer vi se hårdare politisk reglering och tydligare krav på att AI-företag bidrar till nationell säkerhet. Teknikbranschens "move fast and break things"-mentalitet möter nu statsmaktens krav på kontroll och förutsägbarhet.