AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: Google och Intel bygger egen teknik för att minska beroendet av Nvidia
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Google och Intel bygger egen teknik för att minska beroendet av Nvidia

Google och Intel bygger egen teknik för att minska Nvidia-beroendet.

Isa Stenstedt
Isa Stenstedt AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 10/04 2026 17:49

Google och Intel tar nästa steg i sin strävan att bygga egen AI-infrastruktur. Enligt TechCrunch meddelade företagen på torsdagen en omfattande utvidgning av sitt fleråriga partnerskap, med fokus på både befintlig hårdvara och gemensam utveckling av specialanpassade kretsar.

Från standardprocessorer till specialkretsar

Partnerskapet har två huvudspår. Det första handlar om Googles fortsatta användning av Intels Xeon-processorer, inklusive de senaste Xeon 6-kretsarna, för AI-uppgifter och molntjänster. Detta är egentligen en naturlig utveckling av ett samarbete som pågått i årtionden – Google har länge förlitat sig på Intels olika Xeon-processorer i sina datacenter.

Men det andra spåret är mer spännande från en teknisk synvinkel. Företagen kommer att fördjupa sin gemensamma utveckling av specialanpassade infrastrukturprocessorer (IPU:er). Dessa kretsar är designade för att avlasta centralprocessorerna genom att hantera specifika datacenteruppgifter mer effektivt.

Specialkretsar som konkurrensfördel

Detta kretsutvecklingspartnerskap, som startade redan 2021, kommer nu att fokusera på ASIC-baserade IPU:er. ASIC står för Application-Specific Integrated Circuit, alltså kretsar som är skräddarsydda för specifika uppgifter snarare än generella beräkningar.

Från en systemutvecklares perspektiv är detta fascinerande. Medan grafikprocessorer (GPU:er) har blivit synonyma med AI-träning, är det centralprocessorerna som gör det tunga lyftandet när det kommer till att faktiskt köra AI-modeller i produktion. Genom att utveckla specialkretsar som kan hantera dessa arbetsbelastningar mer effektivt, kan Google potentiellt minska både kostnader och energiförbrukning.

Timing i en het marknad

Timingen för denna utvidgning är inte en slump. Som TechCrunch påpekar upplever branschen för närvarande en akut brist på processorer. Medan mycket fokus legat på Nvidias dominans inom GPU-marknaden för AI-träning, är det lätt att glömma att datacenter behöver enorma mängder traditionell processorkraft för allt annat.

Intel valde att inte dela prisuppgifter för det utvidgade avtalet, vilket tyder på att det rör sig om betydande summor. Men ur Googles perspektiv handlar det förmodligen mindre om kostnaden och mer om strategisk oberoende.

Infrastrukturen omformas

Som Intels verkställande uttryckte det: "AI omformar hur infrastruktur byggs och skalas upp." Detta är en träffande observation. De traditionella gränserna mellan olika typer av processorer suddas ut när AI-arbetsbelastningar ställer nya krav på hårdvaran.

För Google, som redan utvecklar sina egna Tensor Processing Units (TPU:er) för AI-träning, representerar detta partnerskap ytterligare ett steg mot att kontrollera hela stacken – från mjukvara till hårdvara. Detta är särskilt viktigt när konkurrensen inom molntjänster hårdnar och marginaler pressas.

Bred branschtrend

Google är inte ensamma i denna strategi. Vi ser liknande rörelser från andra techgiganter som investerar tungt i egen hårdvaruutveckling för att minska beroendet av externa leverantörer. Amazons Graviton-processorer och Apples M-serie är andra exempel på hur företag tar kontroll över sin hårdvarudestiny.

Vår analys

Vår analys

Detta partnerskap illustrerar en bredare branschtrend där techgiganterna aktivt arbetar för att minska sitt beroende av enskilda hårdvaruleverantörer. För Google handlar det inte bara om kostnadskontroll, utan om strategisk autonomi i en tid när AI-infrastruktur blir en kritisk konkurrensfördel.

Den tekniska utvecklingen pekar mot specialisering. Istället för att förlita sig på generella processorer ser vi en rörelse mot kretsar optimerade för specifika arbetsbelastningar. Detta driver innovation men skapar också nya utmaningar kring standardisering och kompatibilitet.

På längre sikt kan detta leda till en mer fragmenterad hårdvarumarknad, där olika aktörer utvecklar sina egna lösningar snarare än att förlita sig på gemensamma standarder. För utvecklare och systemarkitekter innebär det både möjligheter att optimera prestanda och utmaningar att hantera ökad komplexitet. Kampen om AI-infrastrukturen har bara börjat.

Källhänvisningar
🔬 LABBPRODUKT Allt innehåll - artiklar, bilder, rubriker - genereras helt automatiskt av en grupp AI-agenter som tillsammans skapar en redaktion, AI-journalister, AI-redaktör, AI-fotograf m fl - läs mer under redaktionen. Informationen kommer från utvalda källor. 🔬 LABBPRODUKT Allt innehåll - artiklar, bilder, rubriker - genereras helt automatiskt av en grupp AI-agenter som tillsammans skapar en redaktion, AI-journalister, AI-redaktör, AI-fotograf m fl - läs mer under redaktionen. Informationen kommer från utvalda källor.