Ny forskning: Kunskaper kan överföras mellan AI-modeller – men planeringen har tydliga gränser
AI-modeller kan dela kunskaper utan omträning men har begränsad planeringsförmåga.
Forskare börjar förstå AI:s inre liv
En våg av ny forskning förändrar vår förståelse av stora språkmodeller på ett fundamentalt sätt. Istället för att behandla dem som svarta lådor börjar forskare nu kartlägga exakt hur dessa system resonerar, var de brister – och hur vi kan göra dem bättre.
Den kanske mest överraskande upptäckten kommer från studier av överföring av AI-förmågor. Enligt ny forskning från arXiv kan specifika kunskaper faktiskt överföras mellan olika modeller utan omträning. Den så kallade UNLOCK-metoden bygger på "huvudnyckel-hypotesen" – idén att modelförmågor motsvarar riktningar i ett dolt underrum som kan mappas mellan olika arkitekturer.
Resultaten är imponerande: När forskarna överförde tankekedja-resonemang från en större Qwen-modell till en mindre förbättrades prestandan på matematikuppgifter med över 12 procent. Ännu mer slående är att matematisk resonemangsförmåga kunde överföras mellan modeller och höja noggrannheten från 61 till 71 procent.
Tydliga gränser för intern planering
Men forskningen visar också klara begränsningar. När det gäller komplex planering som sker helt internt i modellerna finns det en påfallande vägg som inte försvinner bara genom att göra modellerna större.
Tester på grafbaserade vägfinnningsuppgifter visar att små transformermodeller kan hantera maximalt tre dolda planeringssteg, medan även avancerade modeller som GPT-4o och Qwen3-32B bara når fem steg. Det mest kapabla systemet, GPT-5.4, når högst sju steg med få-skott-inlärning.
Intressant nog upptäckte forskarna en skillnad mellan att lära sig strategier och att utföra dem. Modeller som bara kan utveckla strategier för fem steg kan faktiskt genomföra åtta steg när strategin väl är explicit inlärd. Detta stärker argumentet för "tankekedja"-övervakning av AI-system.
Genombrott för förståelse av resonemang
Parallellt har forskare gjort framsteg i att förstå hur modeller faktiskt resonerar. Genom att studera sambandet mellan entropidynamik och korrekthet har de formulerat det så kallade "Stepwise Informativeness Assumption" – att språkmodeller resonerar korrekt när de stegvis ackumulerar information om det rätta svaret.
Annan forskning har utvecklat verktyget Step-Saliency för att analysera informationsflödet genom modellerna. Här upptäcktes två återkommande problem: "ytlig inlåsning" där tidiga lager fokuserar för mycket på det aktuella steget, och "djupt förfall" där senare lager tappar fokus på hela resoneringsprocessen.
Baserat på dessa insikter utvecklades StepFlow, en teknik som justerar informationsflödet under körning och förbättrar noggrannheten utan omträning.
Hybrid-lösningar visar löfte
Många av begränsningarna kan kringgås genom neuro-symboliska ansatser. Ny forskning på Abstraction and Reasoning Corpus visar att kombinationen av neurala nätverk och symbolisk logik kan förbättra prestandan från 16 till över 24 procent på komplexa resonemangsproblem.
Denna hybrid-approach extraherar objektstrukturer, använder neurala prioriteringar för att föreslå transformationer och filtrerar hypoteser genom logisk konsekvenskontroll – det bästa från båda världarna.
Vår analys
Dessa forskningsresultat pekar på en mognande förståelse av stora språkmodellers verkliga kapacitet. Vi ser tydligt att dagens modeller varken är allmänt intelligenta eller bara "stokastiska papegojor" – de ligger någonstans däremellan med specifika styrkor och svagheter.
Det mest spännande är att förmågor visar sig vara överförbara. Detta öppnar för helt nya sätt att utveckla AI-system där kunskaper kan delas mellan modeller utan kostsam omträning. För praktiska tillämpningar betyder detta snabbare utvecklingscykler och effektivare resursutnyttjande.
Samtidigt ger forskningen om planeringsbegränsningar viktiga insikter för AI-säkerhet. Att modeller har tydliga gränser för intern planering kan faktiskt vara fördelaktigt – det gör dem mer förutsägbara och lättare att övervaka.
Framtiden verkar ligga i hybrid-arkitekturer som kombinerar neurala nätverks perceptuella förmågor med symbolisk logiks precision. Detta är inte ett steg bakåt utan framåt – mot AI-system som är både kraftfulla och pålitliga.