Nu lär sig AI precis som människor – genom att prata med varandra
Genombrott: AI lär sig precis som människor genom att prata.
När AI-modeller börjar lära som människor
En tyst revolution pågår inom artificiell intelligens, och Google ligger i framkant med att utveckla AI som inte bara bearbetar information – utan faktiskt tänker mer som vi människor gör. Genom flera parallella forskningsprojekt har företaget nu visat att AI-modeller kan lära sig socialt, resonera steg för steg, och att mindre kan faktiskt vara mer.
Social inlärning kommer till AI-världen
Det kanske mest fascinerande genombrottet kommer från Googles arbete med social learning. Enligt deras nya forskning kan AI-modeller nu lära sig av varandra genom naturlig kommunikation, precis som människor gör i sociala sammanhang. Metoden bygger på Banduras klassiska sociala inlärningsteori från 1970-talet, men applicerad på stora språkmodeller.
I praktiken betyder det att en AI-modell kan agera "student" medan andra fungerar som "lärare", och kunskapsöverföringen sker helt genom vanligt språk – ingen teknisk kodning eller komplicerade gradienter krävs. Forskarna Amirkeivan Mohtashami och Florian Hartmann har testat metoden på allt från skräppostdetektering till mer komplexa språkuppgifter.
Vad som gör detta så revolutionerande är att det efterliknar hur vi människor faktiskt lär oss – genom att prata med varandra, ställa frågor och få förklaringar.
Steg-för-steg-tänkande blir verklighet
Parallellt har Google utvecklat Chain-of-Table, en teknik som lär AI att resonera över tabelldata på samma sätt som människor gör – steg för steg. Chen-Yu Lee och hans team vid Cloud AI har visat att när AI-modeller får beskriva sitt resonemang iterativt och uppdatera tabeller efter varje tankesteg, förbättras prestandan dramatiskt.
Samma princip tillämpas även på grafstrukturer genom projektet Talk like a Graph. Här har forskarna Bahare Fatemi och Bryan Perozzi utvecklat metoder för att översätta komplexa nätverksstrukturer till text som språkmodeller kan förstå. Resultatet? Upp till 60 procent förbättring på grafuppgifter när AI:n presenterades vid ICLR 2024.
Mindre kan vara mer – Cappy utmanar storlekstrenden
Men kanske det mest överraskande genombrottet kommer från Cappy, där mjukvaruingenjörerna Yun Zhu och Lijuan Liu visar att små AI-modeller faktiskt kan överträffa betydligt större språkmodeller. Genom att använda små "bedömare" som förbättrar prestandan hos större multi-uppgifts modeller, utmanar de den rådande trenden där "större alltid är bättre".
Detta är särskilt betydelsefullt när man tänker på de enorma beräkningskrav som dagens jättemodeller ställer. Modeller som FLAN-11B och OPT-IML-175B kräver inte bara massiva mängder processorkraft och minne – de är också dyra att träna och köra.
Tekniken bakom genombrottet
Vad som förenar alla dessa framsteg är ett gemensamt fokus på att låta AI-modeller resonera snarare än bara bearbeta. Istället för att bara mata in data och få ut svar, utvecklar Google system som kan förklara sitt tänkande, lära sig genom dialog, och anpassa sig till nya situationer på ett mer flexibelt sätt.
Det handlar om att bygga in transparens och förståelse i AI-systemen – egenskaper som blir allt viktigare när vi ska kunna lita på och samarbeta med dessa system i allt mer komplexa uppgifter.
Vår analys
Dessa genombrott representerar en fundamental förskjutning i hur vi tänker om AI-utveckling. Istället för att bara fokusera på att göra modeller större och mer kraftfulla, ser vi nu en mognad mot att göra dem smartare och mer mänskliga i sitt sätt att tänka.
Social inlärning öppnar för helt nya möjligheter där AI-system kan lära sig kontinuerligt från varandra utan mänsklig inblandning. Combined med steg-för-steg-resonemang får vi AI som inte bara ger rätt svar, utan kan förklara varför – något som blir kritiskt när AI används i känsliga områden som sjukvård eller juridik.
Cappys framgång med mindre modeller pekar mot en mer hållbar AI-framtid där vi kan få bättre prestanda utan att förbruka enorma energimängder. Detta kan demokratisera AI-utveckling och göra avancerade system tillgängliga för mindre företag och organisationer.
Sammantaget ser jag detta som början på nästa generation AI – system som inte bara är kraftfulla, utan också transparenta, effektiva och genuint kollaborativa.