Biljon gånger kraftigare AI på 14 år – tre tekniska genombrott driver utvecklingen framåt
AI-kraft ökat en biljon gånger på 14 år tack vare tekniska genombrott.
Från miljoner till biljoner på fjorton år
Det finns ett mönster i AI-utvecklingen som skeptikerna verkar missa om och om igen. Varje gång experter förutspår tekniska hinder som ska bromsa utvecklingen, kommer nya genombrott som krossas barriärerna.
Mustafa Suleyman, medgrundare av DeepMind och nu chef för Microsoft AI, har varit med sedan början och sett utvecklingen inifrån. När han började arbeta med AI 2010 krävdes ungefär 10¹⁴ flops (flyttalsoperationer) för att träna de mest avancerade modellerna. Idag ligger vi på över 10²⁶ flops – en ökning med en biljon gånger på bara fjorton år.
"Skeptikerna fortsätter förutsäga hinder. Och de fortsätter att ha fel inför denna episka utveckling av beräkningskraft", skriver Suleyman i MIT Technology Review.
Som systemutvecklare känner jag igen detta mönster. Vi har sett liknande cykler tidigare – när folk sa att Moores lag skulle sluta gälla, när molntjänster "aldrig skulle kunna ersätta" lokala servrar. Skillnaden nu är att utvecklingen inte bara följer en linjär kurva, utan påskyndas av att flera tekniska språng inträffar samtidigt.
Tre tekniska genombrott konvergerar
Vad som gör nuvarande utveckling så kraftfull är att tre separata tekniska framsteg nu förstärker varandra:
Först har processorerna exploderat i prestanda. Nvidias kretsar har levererat en över sjufaldig ökning på bara sex år – från 312 teraflops 2020 till 2 250 teraflops idag. Det är inte bara en gradvis förbättring, utan en fundamental förändring av vad som är möjligt.
För det andra kommer data fram snabbare tack vare HBM-teknik (högbandbreddsminne). Tekniken staplar kretsar vertikalt som små skyskrapor, och den senaste generationen HBM3 tredubblar bandbredden jämfört med föregångaren. I praktiken betyder det att AI-modellerna inte längre behöver vänta på att data ska hämtas från minnet – flaskhalsen försvinner.
Det tredje genombrottet handlar om sammankoppling. Tekniker som NVLink och InfiniBand har gjort det möjligt att koppla samman hundratusentals grafikprocessorer till lagerliknande superdatorer som fungerar som enskilda kognitiva enheter. Istället för att ha tusentals separata processorer som kommunicerar långsamt, får vi en jättestor hjärna som tänker i realtid.
Varför skeptikerna missar poängen
Det intressanta med Suleymans perspektiv är att han inte bara presenterar siffror – han förklarar varför de traditionella hindren inte längre gäller. Många experter tittar på isolerade tekniska begränsningar: "Silicium kommer nå sin gräns", "Energiförbrukningen blir ohållbar", "Vi får slut på träningsdata".
Men de missar hur innovation fungerar i praktiken. När ett område stöter på gränser, flyttas fokuset till andra områden. När processortillverkare nådde fysiska gränser för hur små transistorer kunde bli, uppfann de sätt att stapla dem vertikalt. När träningsdata blev en begränsning, utvecklades tekniker för syntetisk data och mer effektiv dataanvändning.
Sedan 2010 har vi sett detta mönster upprepas: varje gång en teknisk barriär verkar omöjlig att övervinna, hittar ingenjörer en väg runt den. Enligt MIT Technology Review resulterar denna utveckling i dramatiska förbättringar som fortsätter att överraska även veteraner i branschen.
Exponentiell utveckling är svår att förutsäga
En av anledningarna till att skeptikerna systematiskt underskattar AI-utvecklingen är att människor är dåliga på att förstå exponentiell tillväxt. Vi är vana vid linjära förändringar där förbättringarna kommer i jämna, förutsägbara steg.
Men AI-utvecklingen följer en exponentiell kurva där varje genombrott möjliggör nästa, större genombrott. De biljon gångers förbättring som Suleyman beskriver är inte resultatet av en enda uppfinning, utan av att hundratals innovationer bygger på varandra och skapar en snöbollseffekt.
Det betyder inte att utvecklingen kommer fortsätta för evigt – inget gör det. Men det förklarar varför de som förutsäger en snabb inbromsning ofta har fel. De tittar på dagens begränsningar utan att förstå hur snabbt dessa begränsningar kan förändras.
Vår analys
Suleymans perspektiv visar på något fundamentalt: AI-utvecklingen drivs inte av en enskild teknisk innovation, utan av en konvergens av genombrott som förstärker varandra. Det här mönstret – där hårdvara, mjukvara och infrastruktur utvecklas parallellt – förklarar varför traditionella prognosmodeller systematiskt underskattar takten.
För branschen betyder det att vi bör förbereda oss för fortsatt snabb utveckling snarare än en utjämning. Företag som räknar med att AI-utvecklingen ska bromsa riskerar att hamna efter. Samtidigt understryker Suleymans analys vikten av infrastrukturinvesteringar – framtiden tillhör de som kan bygga och underhålla de enorma beräkningssystem som krävs.
Det mest intressanta är kanske att vi troligen befinner oss i början av denna utveckling, inte slutet. När grundläggande tekniska hinder fortsätter att falla, öppnas dörrar till AI-tillämpningar vi knappt kan föreställa oss idag.