AI-agenter visar lovande resultat för trafikljus och flygledning – men säkerhetsfrågor kvarstår
AI-agenter kan minska restider med 75 procent men säkerhetsfrågor kvarstår.
AI-agenter håller på att flytta från forskningslabb till verkliga tillämpningar som styr vår vardagsinfrastruktur. De senaste genombrotten visar hur dessa system kan göra allt från trafikljus till flygledning smartare och mer effektivt – men också vilka nya säkerhetsrisker som följer.
Genombrott inom trafikstyrning
Från forskningshållet kommer lovande nyheter. Enligt ny forskning kan systemet OracleTSC minska restider med 75 procent och köer med 67 procent genom att kombinera stora språkmodeller med förstärkningsinlärning för trafikljusstyrning. Det verkligt intressanta är att systemet kan förklara sina beslut på vanlig svenska – något som traditionella "svarta låda"-system aldrig kunnat göra.
Liksom trafikljus får även flygplatstrafik AI-uppgradering. Forskare har utvecklat CaTR (Conflict-aware Taxiway Routing), ett system som styr flera flygplan samtidigt på flygplatsmarken och undviker kollisioner i realtid. Tester på en miljö baserad på Changsha Huanghua internationella flygplats visar att systemet uppnår bättre balans mellan säkerhet och effektivitet än befintliga metoder.
AI-agenter blir smartare tillsammans
Parallellt utvecklas tekniker för att få AI-agenter att samarbeta mer effektivt. Forskningsframsteg som AgentPSO låter flera agenter utveckla sina resonemangsförmågor tillsammans, medan EvoMAS kan anpassa sina arbetsflöden dynamiskt under uppgiftens genomförande – istället för att följa förbestämda mönster.
Ett särskilt intressant fynd är att AI-agenter drabbas av "kontextförorening" vid omförsök. När en agent misslyckas med en uppgift och försöker igen, finns information från det misslyckade försöket kvar i minnessammanhanget, vilket försämrar prestandan. Traditionella modeller överskattar framgångsgraden med hela 17,4 procentenheter när de inte tar hänsyn till detta fenomen.
Säkerhetsutmaningar kräver nya lösningar
Men med större möjligheter följer nya risker. Enligt Computer Sweden är AI-ansvarsfullhet – säkerhet, granskningsbarhet, spårbarhet och skyddsräcken – nu den viktigaste faktorn när företag fattar köpbeslut om AI-teknik. Detta kommer före implementeringshastighet, leverantörens rykte och till och med den totala ägandekostnaden.
Ett skrämmande exempel är säkerhetsbrottet hos McKinsey tidigare i år. Forskare lyckades tränga in i konsultjättens AI-plattform Lilli och få tillgång till 47 miljoner chattmeddelanden, 728 000 filer och nästan 4 miljoner dokumentdelar. Orsaken var att 22 av över 200 offentligt exponerade API-slutpunkter inte krävde någon autentisering alls.
"De flesta företag tänker fortfarande på AI-risker i gårdagens termer: dataläckage, felaktiga resultat och skada på varumärkets rykte", säger Alessandro Perilli, vice vd för AI-forskning på IDC. "Den större risken blir att delegera befogenheter till AI-system."
Genom att få tillgång till en agentbaserad AI-plattform kan angripare inte bara se konfidentiell information, utan också utföra handlingar på organisationens vägnar.
Vår analys: En vattendelare för AI-infrastruktur
Vi befinner oss vid en vattendelare där AI-agenter går från laboratoriekuriosa till kritisk infrastruktur. Kombinationen av genomsynlighet (trafikljus som förklarar sina beslut) och autonomi (flygplan som dirigeras av AI) visar på mognaden i tekniken.
Det mest intressanta är skiftet i företagens prioriteringar – att säkerhet nu väger tyngre än implementeringshastighet när AI-verktyg väljs. McKinsey-incidenten fungerar som en väckarklocka för branschen: när AI-agenter får verklig befogenhet blir konsekvenserna av säkerhetsbrott exponentiellt större.
Framöver kommer vi se en tvådelad utveckling. Å ena sidan fortsatta genombrott inom autonoma system för kritisk infrastruktur. Å andra sidan en intensiv utveckling av säkerhetsramverk specifikt för AI-agenter. Företag som inte tar denna dubbelspårighet på allvar riskerar att hamna efter – eller ännu värre, drabbas av säkerhetsincidenter med omfattande konsekvenser.