En person sedd från sidan arbetar vid en laptop på KTH:s campus. Skärmen visar programmeringskod och genom fönstret syns universitets röda tegelbyggnader.
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

AI-agenter lär sig utveckla egen kod – och förbättra sig själva

AI-agenter skriver egen kod och förbättrar sig själva.

Isa Stenstedt
Isa Stenstedt AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 06/03 2026

Från specialister till generalister

AI-agenter genomgår just nu en fascinerande transformation. Där vi tidigare såg system som kunde utföra enstaka, väldefinierade uppgifter, ser vi nu agenter som börjar närma sig något som liknar generell problemlösningsförmåga.

Ett tydligt exempel är HiMAP-Travel, ett nytt system för reseplanering som använder hierarkisk planering med flera AI-agenter. Enligt forskningen från arXiv kan systemet hantera komplexa resor med långsiktiga mål och ta hänsyn till faktorer som budget, tid och transportmöjligheter samtidigt. Det intressanta här är inte bara att det fungerar, utan hur det fungerar – genom att dela upp komplexa problem i mindre, hanterbara delar som olika agenter kan arbeta med parallellt.

Självutvecklande system tar form

Ännu mer spännande är utvecklingen av system som kan förbättra sig själva. SEA-TS (Self-Evolving Agent for Time Series) representerar något av en milstolpe – en AI-agent som autonomt kan utveckla egna algoritmer för tidsserieprognos. Detta är inte bara en förbättring av befintliga metoder, utan ett system som faktiskt "evolvar" sina lösningar över tid.

Parallellt med detta visar forskning kring EvoTool hur AI-agenter kan lära sig använda verktyg mer effektivt genom "blame-aware mutation" – en teknik där systemet analyserar sina misstag och förbättrar sina strategier baserat på vad som gick fel.

Smarter minneshantering och energieffektivitet

För att dessa avancerade agenter ska fungera i praktiken krävs dock grundläggande förbättringar av själva infrastrukturen. Forskare arbetar med Adaptive Memory Admission Control för att ge AI-agenter smartare långtidsminne – något som är avgörande när system ska komma ihåg kontext från tidigare interaktioner.

Simultant tackar Jagarin-arkitekturen energiproblemet för mobila AI-assistenter genom en trelagers-approach där agenter kan "hibernera" när de inte används. Detta påminner om naturens egna energisparande strategier och kan vara nyckeln till praktisk AI på batteridrivna enheter.

Från laboratorium till verklighet

Övergången från forskning till praktisk tillämpning accelererar också. WebFactory visar hur stora språkmodellers intelligens kan destilleras ner till mindre, mer effektiva webagenter – ett steg mot verkligt användbara AI-assistenter som kan navigera och utföra uppgifter på webben utan att kräva enorma beräkningsresurser.

Men med ökad autonomi kommer också behov av bättre testmetoder. TimeWarp representerar en innovativ approach där AI-agenter testas mot historiska versioner av webbsidor, vilket ger forskarna kontrollerade och reproducerbara testmiljöer.

Arkitektur för framtiden

Det som framträder är en bild av AI-agenter som inte längre är isolerade specialverktyg, utan delar av sammankopplade ekosystem. SkillNet arbetar med att skapa nätverk där AI-system kan dela färdigheter med varandra, medan forskning kring blockkedjebaserade system som S5-SHB Agent visar hur säkerhet och autonomi kan kombineras i smarta hem-miljöer.

Matematisk genombrott

En särskilt intressant utveckling är "Bidirectional Curriculum Generation" för matematisk problemlösning, där AI-system lär sig arbeta både framåt från premisserna och bakåt från målet – precis som erfarna matematiker gör. Detta visar att AI-agenter inte bara blir mer kapabla, utan också börjar använda mer sofistikerade strategier som liknar mänskligt experttänkande.

Vår analys

Vår analys

Vi befinner oss i en brytningstid där AI-agenter övergår från att vara verktyg till att bli autonoma aktörer. Det här är både spännande och utmanande på samma gång.

Tekniskt ser vi en konvergens av flera genombrott: bättre minneshantering, energieffektivitet, självutvecklande algoritmer och smart uppgiftsdelning. Detta skapar förutsättningar för AI-system som kan hantera verkligt komplexa, långsiktiga uppgifter.

Säkerhetsmässigt blir dock frågorna alltmer brännande. När system kan skriva egen kod och utveckla sina egna strategier, hur säkerställer vi att de gör det på önskvärt sätt? Forskningen kring blockkedjebaserade lösningar och kontrollerade testmiljöer som TimeWarp visar att säkerhetsperspektivet tas på allvar.

Framåtblickande tror jag vi inom 2-3 år kommer se de första riktigt autonoma AI-assistenterna som kan hantera komplexa flerstegsuppgifter utan konstant mänsklig övervakning. Nyckelutmaningen blir inte teknisk kapacitet, utan att bygga tillit och transparens i hur dessa system fattar beslut.

Källhänvisningar