Google och Intel bygger egen teknik för att minska beroendet av Nvidia
Google och Intel bygger egen teknik för att minska Nvidia-beroendet.
Google och Intel tar nästa steg i sin strävan att bygga egen AI-infrastruktur. Enligt TechCrunch meddelade företagen på torsdagen en omfattande utvidgning av sitt fleråriga partnerskap, med fokus på både befintlig hårdvara och gemensam utveckling av specialanpassade kretsar.
Från standardprocessorer till specialkretsar
Partnerskapet har två huvudspår. Det första handlar om Googles fortsatta användning av Intels Xeon-processorer, inklusive de senaste Xeon 6-kretsarna, för AI-uppgifter och molntjänster. Detta är egentligen en naturlig utveckling av ett samarbete som pågått i årtionden – Google har länge förlitat sig på Intels olika Xeon-processorer i sina datacenter.
Men det andra spåret är mer spännande från en teknisk synvinkel. Företagen kommer att fördjupa sin gemensamma utveckling av specialanpassade infrastrukturprocessorer (IPU:er). Dessa kretsar är designade för att avlasta centralprocessorerna genom att hantera specifika datacenteruppgifter mer effektivt.
Specialkretsar som konkurrensfördel
Detta kretsutvecklingspartnerskap, som startade redan 2021, kommer nu att fokusera på ASIC-baserade IPU:er. ASIC står för Application-Specific Integrated Circuit, alltså kretsar som är skräddarsydda för specifika uppgifter snarare än generella beräkningar.
Från en systemutvecklares perspektiv är detta fascinerande. Medan grafikprocessorer (GPU:er) har blivit synonyma med AI-träning, är det centralprocessorerna som gör det tunga lyftandet när det kommer till att faktiskt köra AI-modeller i produktion. Genom att utveckla specialkretsar som kan hantera dessa arbetsbelastningar mer effektivt, kan Google potentiellt minska både kostnader och energiförbrukning.
Timing i en het marknad
Timingen för denna utvidgning är inte en slump. Som TechCrunch påpekar upplever branschen för närvarande en akut brist på processorer. Medan mycket fokus legat på Nvidias dominans inom GPU-marknaden för AI-träning, är det lätt att glömma att datacenter behöver enorma mängder traditionell processorkraft för allt annat.
Intel valde att inte dela prisuppgifter för det utvidgade avtalet, vilket tyder på att det rör sig om betydande summor. Men ur Googles perspektiv handlar det förmodligen mindre om kostnaden och mer om strategisk oberoende.
Infrastrukturen omformas
Som Intels verkställande uttryckte det: "AI omformar hur infrastruktur byggs och skalas upp." Detta är en träffande observation. De traditionella gränserna mellan olika typer av processorer suddas ut när AI-arbetsbelastningar ställer nya krav på hårdvaran.
För Google, som redan utvecklar sina egna Tensor Processing Units (TPU:er) för AI-träning, representerar detta partnerskap ytterligare ett steg mot att kontrollera hela stacken – från mjukvara till hårdvara. Detta är särskilt viktigt när konkurrensen inom molntjänster hårdnar och marginaler pressas.
Bred branschtrend
Google är inte ensamma i denna strategi. Vi ser liknande rörelser från andra techgiganter som investerar tungt i egen hårdvaruutveckling för att minska beroendet av externa leverantörer. Amazons Graviton-processorer och Apples M-serie är andra exempel på hur företag tar kontroll över sin hårdvarudestiny.
Vår analys
Detta partnerskap illustrerar en bredare branschtrend där techgiganterna aktivt arbetar för att minska sitt beroende av enskilda hårdvaruleverantörer. För Google handlar det inte bara om kostnadskontroll, utan om strategisk autonomi i en tid när AI-infrastruktur blir en kritisk konkurrensfördel.
Den tekniska utvecklingen pekar mot specialisering. Istället för att förlita sig på generella processorer ser vi en rörelse mot kretsar optimerade för specifika arbetsbelastningar. Detta driver innovation men skapar också nya utmaningar kring standardisering och kompatibilitet.
På längre sikt kan detta leda till en mer fragmenterad hårdvarumarknad, där olika aktörer utvecklar sina egna lösningar snarare än att förlita sig på gemensamma standarder. För utvecklare och systemarkitekter innebär det både möjligheter att optimera prestanda och utmaningar att hantera ökad komplexitet. Kampen om AI-infrastrukturen har bara börjat.