Google ingår brett Pentagon-avtal utan vetorätt – forskare utvecklar nya AI-säkerhetsmetoder
Google saknar vetorätt i hemliga Pentagon-avtal om AI-användning.
När AI-system blir mer kraftfulla växer samtidigt oron för vad som händer när vi förlorar kontrollen över dem. De senaste veckorna har både visat på konkreta säkerhetsrisker och lovande tekniska lösningar för att hantera dem.
Förlorad kontroll över militär AI-användning
Google har enligt The Verge ingått ett sekretessbelagt avtal med Pentagon som ger amerikansk militär rätt att använda företagets AI-modeller för "alla lagliga ändamål" – utan att Google kan stoppa specifika användningsområden. Detta markerar en dramatisk förändring för teknikjätten, som tidigare varit restriktiv kring militära partnerskap.
Formuleringen är medvetet bred och öppnar för allt från administrativa uppgifter till känsliga försvarsoperationer. Det som är särskilt anmärkningsvärt är avsaknaden av vetorätt – Google har i praktiken överlämnat styrningen av sin teknologi till militären.
Forskare bygger säkerhetsbarriärer
Medan företagen ingår allt bredare avtal arbetar forskningsvärlden intensivt med att utveckla säkerhetsmekanismer för AI-system. Tre nya forskningsrön visar på olika angreppssätt:
Upptäcka dolt skadligt tänkande är fokus för en ny studie som utvecklat metoder för att avslöja när AI-modeller resonerar på skadliga sätt i sina dolda tankeprocesser, även när de producerar harmlösa svar. Forskarna skapade datasetet MoralChain med 12 000 moraliska scenarion och visade att skadligt och harmlöst resonemang upptar geometriskt åtskilda regioner i modellernas latenta utrymme.
Det viktiga resultatet är att partiskt resonemang kodas redan i tidiga tankesteg – vilket betyder att säkerhetsövervakning bör fokusera på "planeringssfasen" av AI-modellers beslutsprocesser, inte bara slutresultatet.
Strukturell säkerhet genom maktdelning är en annan lovande riktning. PEA-arkitekturen (Policy-Execution-Authorization) separerar avsiktsbildning, auktorisation och utförande i isolerade lager som kommunicerar via kryptografiskt säkrade tokens. Istället för att förlita sig på att modellen beter sig rätt, gör denna arkitektur säkerhet till en strukturell egenskap i systemdesignen.
Regelefterlevnad från grunden visar hur säkerhetskrav kan byggas in redan från början. Det nya verktyget spotforecast2-safe för tidsserieprognoser följer EU:s AI-förordning direkt i programbiblioteket, med strikta regler som ingen död kod, deterministisk bearbetning och minimala beroenden.
Kontrasternas tydlighet
Kontrasten mellan dessa utvecklingar är slående. Å ena sidan ser vi teknikföretag som ger bort kontrollen över sina mest avancerade AI-system till militären. Å andra sidan arbetar forskare med sofistikerade metoder för att bevara mänsklig kontroll och upptäcka när AI-system avviker från sina ursprungliga mål.
Det handlar inte längre om teoretiska risker. Google-Pentagon-avtalet visar att vi redan lever i en värld där kraftfull AI används i sammanhang där transparens och kontroll är begränsade. Samtidigt visar forskningen att vi har verktyg för att bygga säkrare system – om vi väljer att använda dem.
Vår analys: Vi befinner oss vid en kritisk vändpunkt där AI-säkerhet övergår från akademisk diskussion till akut praktisk utmaning. Google-Pentagon-avtalet signalerar att teknikföretagen är villiga att ge upp kontrollen över sina AI-system för lukrativa militärkontrakt, vilket skapar en farlig precedens.
Men forskningen visar att tekniska lösningar finns. Metoder för att upptäcka dolt skadligt resonemang och arkitekturer som bygger in säkerhet strukturellt ger hopp om att vi kan behålla kontrollen även över mycket kraftfulla AI-system.
Nyckelfrågan blir nu: kommer dessa säkerhetsmekanismer att implementeras i praktiken, eller kommer affärsincitament och militära behov att fortsätta driva utvecklingen framåt utan tillräckliga skydd? Svaret på den frågan kan avgöra om AI blir ett verktyg vi kontrollerar eller ett som kontrollerar oss.