En forskare sedd bakifrån arbetar vid datorn med AI-kod på skärmen, i ljust universitetskontor med stora fönster
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Nu tränar AI andra AI-system – och skriver avancerad GPU-kod

AI tränar nu andra AI-system och skriver avancerad GPU-kod själva.

Isa Stenstedt
Isa Stenstedt AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 24/01 2026

Nya arkitekturer bryter traditionella gränser

AI-utvecklingen tar just nu några fascinerande steg framåt på flera fronter samtidigt. Hugging Face har lanserat Differential Transformer V2, en arkitektur som utmanar de traditionella transformer-modellerna genom att använda differentiella beräkningar för att mer effektivt fokusera på relevant information. Det intressanta här är inte bara den förbättrade prestandan, utan också den minskade resursförbrukningen – något som är avgörande när vi pratar om skalbarhet.

Men det är träningsmetoderna som verkligen fångar min uppmärksamhet. Forskare har utvecklat "agentic reinforcement learning" – en teknik som tränar språkmodeller att agera som självständiga agenter snarare än passiva verktyg. Istället för att bara vänta på input och svara, lär sig dessa modeller att ta egna initiativ, planera framåt och utföra komplexa handlingssekvenser för att nå specifika mål.

När AI börjar undervisa AI

Ännu mer fascinerande är utvecklingen där Claude AI har visat sig kunna skriva avancerad CUDA-kod för GPU-programmering – något som traditionellt kräver djup specialistkunskap. Men det som verkligen imponerar är Claudes förmåga att fungera som mentor för mindre AI-modeller, vilket enligt Hugging Face öppnar för en framtid där AI-system kan lära av varandra på ett strukturerat sätt.

Detta är inte bara tekniskt imponerande – det förändrar fundamentalt hur vi kan tänka kring AI-utveckling. Istället för att varje modell måste tränas från grunden, kan vi få se mer effektiva kunskapsöverföringar mellan system.

Från labb till industri

Men hur vet vi att dessa framsteg faktiskt fungerar i verkligheten? Det är här AssetOpsBench kommer in i bilden – ett nytt testramverk som utvärderarAI-agenters förmåga att hantera verkliga industriella uppgifter. Forskarna bakom projektet har insett att de flesta befintliga benchmark-test fokuserar på akademiska problem som inte speglar industrins komplexitet.

AssetOpsBench simulerar realistiska scenarion där AI-agenter måste analysera sensordatad, identifiera underhållsbehov och fatta beslut under osäkerhet – precis som i verkliga industriella miljöer. Detta är avgörande för att bygga förtroende för AI-system i kritiska tillämpningar.

En systemisk förändring

Vad vi ser här är inte isolerade genombrott, utan en systemisk förändring mot mer autonoma och kapabla AI-system. Differential Transformer V2 ger oss mer effektiva arkitekturer, agentic reinforcement learning skapar mer självständiga system, AI-till-AI-lärande accelererar utvecklingen, och verklighetsnära testramverk säkerställer att framstegen faktiskt fungerar i praktiken.

Den tekniska utmaningen ligger nu i att balansera autonomi med kontroll. Ju mer självständiga dessa system blir, desto viktigare blir det att de förblir förutsägbara och säkra. Men det är en utmaning värd att ta sig an – potentialen för AI-system som kan hantera komplexa, långsiktiga uppgifter med minimal mänsklig övervakning är enormt.

Vår analys

Vår analys

Dessa genombrott pekar mot en paradigmförskjutning från reaktiva AI-verktyg till proaktiva AI-agenter. Det är särskilt betydelsefullt att utvecklingen sker på flera nivåer samtidigt – arkitektur, träningsmetoder, kunskapsöverföring och utvärdering.

Industriellt perspektiv: AssetOpsBench visar att AI-forskningen mognar och fokuserar på verkliga tillämpningar snarare än enbart teoretiska framsteg. Detta är avgörande för adoption inom industrin.

Utvecklingsperspektiv: AI-till-AI-lärande kan drastiskt förkorta utvecklingscykler och demokratisera avancerade AI-förmågor. När Claude kan skriva CUDA-kod och samtidigt utbilda andra modeller, ser vi konturerna av ett ekosystem där AI-utveckling blir mer självförsörjande.

Framtiden: Vi rör oss mot en era där AI-assistenter inte bara svarar på frågor utan aktivt löser komplexa problem över tid. Utmaningen blir att säkerställa att denna autonomi förblir kontrollerbar och transparent.

Källhänvisningar