Forskare skapar AI som förbättrar sig själv — inspirerad av teorier om mänskligt medvetande
Forskare skapar AI som förbättrar sig själv utan mänsklig hjälp.
Från deterministiska neuromorfa system till medvetandeinspirerad AI
En serie genombrott inom AI-forskningen visar att nästa generations system kommer att vara fundamentalt annorlunda än dagens modeller. Forskare har löst kritiska problem med deterministiska neuromorfiska system genom att utveckla ett ramverk baserat på laddningsbevarande nätverk, enligt ny forskning från arXiv. Detta säkerställer att slutresultatet endast beror på den totala inmatningsladdningen, vilket ger förutsägbara resultat även i asynkrona system.
Parallellt har forskare utvecklat MANAR (Memory-augmented Attention with Navigational Abstract Conceptual Representation), en AI-arkitektur inspirerad av Global Workspace Theory — teorin om hur mänskligt medvetande fungerar. Systemet använder en tvåstegsprocess där minnesbegrepp först sammanfogas till en kollektiv "mental bild" som sedan vägleder bearbetningen. Resultatet är linjär tidskomplexitet istället för den kvadratiska komplexiteten hos traditionella metoder, samtidigt som prestandan matchar eller överträffar etablerade system.
Självförbättrande AI och effektivare träning
En av de mest spännande utvecklingarna är framstegen inom självförbättrande AI-system. Forskare har presenterat metoder som gör att AI kan kontinuerligt förbättra sig själva utan mänsklig input genom tre banbrytande tekniker: användning av syntetisk data för att förvandla små textsamlingar till rika kunskapsrepresentationer, generering av egen träningsdata för att förbättra grundläggande färdigheter, och automatisk sökning genom algoritmkonfigurationer för att upptäcka nya inlärningsmetoder.
Samtidigt har den nya metoden dTRPO (Trajectory Reduction Policy Optimization) visat imponerande resultat för språkmodeller, med förbättringar på upp till 9,6 procent inom naturvetenskapliga uppgifter. Metoden bygger på två matematiska genombrott som gör det möjligt att beräkna sannolikheter för språkgenerering mycket mer effektivt.
Enhetscirkelns revolution och praktiska tillämpningar
En särskilt intressant utveckling är PhasorFlow, ett Python-bibliotek som introducerar ett helt nytt sätt att utföra beräkningar baserat på komplexa fasorer på enhetscirkeln. Systemet har lett till utvecklingen av Phasor Transformer, som löser den kvadratiska flaskhalsen i traditionella transformermodeller genom att uppnå global tokenförbindelse med komplexiteten O(N log N).
Forskarna bakom PhasorFlow har formaliserat Fasor-kretsmodellen med 22 olika grindar och utvecklat Variationella Fasor-kretsar som erbjuder ett deterministiskt, lättviktigt alternativ till både klassiska neurala nätverk och kvantkretsar.
Automatisering av forskningsprocesser
Svenska forskare har tagit automatiseringen ett steg längre med EDM-ARS (Educational Data Mining Automated Research System), som kan automatisera hela forskningsprocessen inom utbildningsdatautvinning. Systemet består av fem specialiserade AI-agenter som samarbetar för att producera kompletta vetenskapliga artiklar från forskningsfråga till färdig rapport.
Parallellt visar forskning att stora språkmodeller nu kan generera meningsfulla matematiska forskningsproblem som tidigare varit okända för experter, vilket öppnar för AI som forskningspartner snarare än bara verktyg.
Vår analys
Dessa genombrott signalerar en fundamental förskjutning från dagens AI-landskap mot mer autonoma och effektiva system. Särskilt intressant är konvergensen mellan olika forskningsområden — neuromorfiska system, medvetandeinspirerade arkitekturer och matematiskt eleganta lösningar som enhetscirkelns beräkningar pekar alla mot samma mål: AI-system som är mer energieffektiva, pålitliga och kapabla till verklig generalisering.
Som systemutvecklare ser jag detta som början på en andra våg av AI-innovation. Där den första vågen fokuserade på att skala upp befintliga arkitekturer, handlar denna om att fundamentalt omtänka hur AI-system byggds. Kombinationen av självförbättrande förmågor och deterministiska neuromorfiska system kan leda till AI som utvecklas kontinuerligt samtidigt som den förblir förutsägbar och säker.
Det svenska bidraget med EDM-ARS och den internationella forskningen kring PhasorFlow visar att innovation sker på bred front. Vi står sannolikt inför en period där AI-utveckling accelererar exponentiellt — inte bara genom mer data och beräkningskraft, utan genom genuint smartare arkitekturer.