HP:s AI-superdator kan köra modeller som konkurrerar med ChatGPT
HP:s kompakta superdator kan köra ChatGPT-konkurrent lokalt på företag.
HP:s motoffensiv mot molndominansen
När molnjättarna kämpar om att leverera AI som tjänst går HP åt motsatt håll. Företaget satsar stenhårt på att ge organisationer möjlighet att köra kraftfulla AI-modeller på egen mark – bokstavligt talbet.
Jerome Gabryszewski, HP:s chef för affärsutveckling inom AI och datavetenskap, tror att framtiden ligger i lokal beräkning snarare än molnberoende. Inför AI & Big Data Expo i San Jose presenterar han en vision där företag får tillbaka kontrollen över sina AI-arbetsflöden.
Kompakt kraft som imponerar
Centrum i HP:s strategi är ZGX Nano – en AI-superdator som bara mäter 15x15 centimeter men som drivs av NVIDIA:s senaste GB10 Grace Blackwell-chip med 128 GB minne. Enligt Artificial Intelligence News kan denna lilla kraftpaket hantera modeller med upp till 200 miljarder parametrar lokalt.
För att sätta detta i perspektiv: det är tillräckligt för att köra modeller i samma storleksordning som GPT-3 direkt på företagets skrivbord. Kopplar man ihop två enheter kan man hantera modeller med upp till 405 miljarder parametrar – alltså i klass med de allra största språkmodellerna som finns idag.
Detta är ingen leksak. HP bygger verktyg som kan förändra hur företag tänker kring AI-infrastruktur.
Mer än bara hårdvara
Men HP:s satsning handlar om mer än imponerande hårdvaruspeficikationer. Gabryszewski pekar på de verkliga utmaningarna som företag står inför när de ska implementera AI i stor skala.
"Innan automatisering kan få fäste måste organisationer lösa fragmenterad dataägarskap mellan avdelningar, inkonsekventa datascheman och äldre infrastruktur som aldrig designades för samverkan", förklarar han.
Detta är en viktig poäng som ofta förbises i AI-diskussioner. Det räcker inte med att köpa in den senaste tekniken – företag måste först städa upp i sina datasystem och skapa ordning i kaoset.
Styrning blir avgörande
En annan aspekt som HP lyfter fram är vikten av AI-styrning. När modeller börjar uppdatera sig själva kontinuerligt uppstår nya risker som konceptavdrift och dataförgiftning.
HP:s rekommendation är att behandla modelluppdateringar som koddistribution – inget når produktion utan validering. En ansats som känns bekant för oss systemutvecklare men som många AI-projekt fortfarande ignorerar.
"De kunder som lyckas bäst är inte nödvändigtvis de mest tekniskt avancerade, utan de som byggt in AI-styrning i sina riskramverk innan de skalade upp", säger Gabryszewski.
Lokal AI som konkurrensfördel
HP:s satsning kommer vid en intressant tidpunkt. Medan företag som OpenAI, Google och Microsoft kämpar om att leverera AI via molntjänster, erbjuder HP något helt annat: oberoende.
För företag med känsliga data eller strikta regelkrav kan möjligheten att köra avancerade AI-modeller lokalt vara avgörande. Ingen risk för dataläckage till tredje part, full kontroll över bearbetningen och möjlighet att anpassa modellerna efter specifika behov.
Vår analys: Ett smart drag som kan förändra spelreglerna
HP:s strategi är fascinerande eftersom den går stick i stäv mot branschtrenden. Medan alla andra bygger molntjänster satsar HP på att demokratisera kraftfull AI-hårdvara.
Detta kan bli särskilt viktigt när AI-regleringen skärps. EU:s AI-förordning och liknande lagar kommer att göra datakontroll och spårbarhet viktigare än någonsin. Företag som kan köra AI lokalt får en betydande regelefterlevnadsförder.
Jag tror också att HP:s fokus på AI-styrning och datahantering visar på en mognad som saknas hos många molnleverantörer. Att bygga in bästa praxis från systemutveckling i AI-arbetsflöden är precis vad branschen behöver.
Frågan är om HP kan skala denna strategi tillräckligt snabbt för att konkurrera med molnjättarnas resurser. Men för företag som värdesätter kontroll över hastighet kan detta bli det perfekta alternativet.