Kinesiska DeepSeek utmanar OpenAI med 1,6 biljon parameter-modell till bråkdel av kostnaden
Kinesiska DeepSeek utmanar OpenAI med gigantisk AI-modell till bråkdel av kostnaden.
DeepSeek V4 utmanar AI-jättarna med miljardparameter-modell till bråkdel av kostnaden
Det kinesiska AI-laboratoriet DeepSeek har släppt en förhandsversion av sin V4-modell som kan komma att skaka om den etablerade ordningen inom AI-branschen. Enligt TechCrunch erbjuds modellen till en bråkdel av kostnaderna för konkurrerande tjänster, samtidigt som den påstås "nästan ha slutit gapet" till världens ledande AI-system.
Två versioner med imponerande specifikationer
V4 kommer i två varianter: Flash och Pro. Pro-versionen är särskilt imponerande med sina 1,6 biljoner parametrar, vilket gör den till den största öppna modellen som någonsin släppts. Det är mer än dubbelt så stort som föregångaren V3.2 och överstiger betydligt konkurrerande modeller från andra kinesiska aktörer som Moonshot AI och MiniMax.
Den mindre Flash-versionen innehåller 284 miljarder parametrar – fortfarande en ansenlig storlek. Båda modellerna kan hantera upp till en miljon symboler samtidigt, vilket innebär att de kan analysera enorma kodbaser eller omfattande dokument i ett svep.
Expertblandningsteknik håller nere kostnaderna
Nyckeln till DeepSeeks kostnadsfördel ligger i den så kallade expertblandningstekniken (mixture of experts). Istället för att aktivera hela den massiva modellen för varje uppgift, aktiveras endast de delar som behövs. Detta är en smart arkitekturlösning som dramatiskt sänker beräkningskostnaderna utan att förlora kapacitet.
Tekniken är inte ny, men DeepSeeks implementation verkar särskilt effektiv. Som systemutvecklare imponeras jag av hur de lyckats skala upp till 1,6 biljoner parametrar samtidigt som de håller kostnaderna nere – det kräver både teknisk skicklighet och smart resurshantering.
Stark programmeringsförmåga, men kunskapsluckor kvarstår
Enligt DeepSeeks egna mätningar överträffar V4-Pro-Max sina konkurrenter inom öppen källkod och presterar bättre än OpenAI:s GPT-5.2 och Gemini 3.0 Pro inom vissa områden. The Verge lyfter fram att programmeringsförmågan har blivit central för AI-agenter, och här verkar V4 särskilt stark – båda versionerna sägs vara "jämförbara med GPT-5.4" inom programmeringstester.
Däremot finns det fortfarande luckor. Modellerna släpar efter inom kunskapstester, särskilt jämfört med GPT-5.4 och Gemini 3.1 Pro. DeepSeek uppskattar själva att deras utvecklingsförlopp ligger "cirka 3-6 månader" efter de absolut ledande systemen.
Geopolitisk dimension och teknisk kontrovers
Lanseringen kommer exakt ett år efter att DeepSeeks R1-modell orsakade oro inom den amerikanska AI-branschen. Företaget påstod då att modellen tränats till en bråkdel av kostnaden för amerikanska system, vilket väckte frågor om hur detta var möjligt.
Amerikanska myndigheter har anklagat DeepSeek för att använda förbjudna Nvidia-kretsar, medan Anthropic hävdar att företaget missbrukat Claude för att förbättra sina egna produkter. DeepSeek har inte avslöjat vilken hårdvara som användes för V4:s träning, men Computer Sweden rapporterar att företaget särskilt lyfter fram kompatibiliteten med inhemsk Huawei-teknik.
Öppen källkod som konkurrensfördel
En viktig aspekt är att V4, liksom tidigare DeepSeek-modeller, släpps som öppen källkod. Detta innebär att utvecklare världen över kan ladda ner, modifiera och använda modellen utan licensavgifter. För företag som vill integrera AI-kapacitet utan att vara beroende av amerikanska molntjänster kan detta vara avgörande.
V4 inkluderar också inbyggt stöd för agentverktyg som Claude Code och Openclaw, vilket underlättar integration med befintliga arbetsflöden.
Vår analys
DeepSeeks V4-lansering representerar mer än bara en ny AI-modell – det är en tydlig signal om att den teknologiska klyftan mellan kinesiska och amerikanska AI-system snabbt krymper. Att leverera 1,6 biljoner parametrar som öppen källkod till låg kostnad är en direkt utmaning mot de amerikanska jättarnas affärsmodeller.
Från teknisk synvinkel imponerar expertblandningstekniken och skalningen. Som systemutvecklare ser jag enorma möjligheter för mindre företag och utvecklare som nu kan få tillgång till toppmoderna AI-kapacitet utan att betala premiumpriser till de stora molnjättarna.
Lanseringen intensifierar också den geopolitiska konkurrensen inom AI. När kinesiska företag kan leverera jämförbar prestanda till lägre kostnader, utmanas den amerikanska dominansen. Detta kommer sannolikt att accelerera innovation på båda sidor – en utveckling som gynnar hela ekosystemet.
Framöver förväntar jag mig att vi kommer se ännu mer aggressiv konkurrens, både tekniskt och prismässigt. DeepSeeks framgång visar att innovation och kostnadseffektivitet kan vara lika viktigt som ren datorkraft.