AI-industrin under attack – nordkoreanska hackare infiltrerar kritiska kodbibliotek medan falska ChatGPT-sajter sprider skadlig kod
Nordkoreanska hackare infiltrerar AI-industrin genom kodbibliotek och falska sajter.
När AI-framgången blir en säkerhetsrisk
AI-industrins snabba tillväxt har skapat en ny kategori av cyberhot som riskerar att undergräva förtroendet för artificiell intelligens. Under de senaste månaderna har vi sett hur angripare systematiskt utnyttjar både AI-företagens infrastruktur och användarnas förtroende för att sprida skadlig kod.
Angrepp mot hjärtat av utvecklingen
I mars drabbades OpenAI av en sofistikerad attack när nordkoreanska hackare lyckades kompromettera det populära Javascript-biblioteket Axios, enligt SecurityWeek. Med över 100 miljoner nedladdningar per vecka är Axios en av internets mest kritiska kodkomponenter – och angriparna visste precis vad de gjorde.
Attacken riktade sig specifikt mot OpenAI:s process för att signera macOS-applikationer, vilket gav hackarna tillgång till de digitala certifikat som garanterar att program som ChatGPT Desktop verkligen kommer från OpenAI. Även om företaget bedömer att certifikaten troligtvis inte läckte, tvingades de återkalla och ersätta dem som säkerhetsåtgård.
Detta är ett perfekt exempel på en så kallad "supply chain"-attack – angripare som istället för att attackera målet direkt går efter leverantörerna i kedjan. För AI-företag, som är beroende av hundratals öppna kodbibliotek, är detta en särskilt känslig punkt.
Falska AI-tjänster som lockbete
Parallellt rapporterar Malwarebytes om en helt annan typ av hot: cyberbrottslingar som skapar förfalskade webbplatser för populära AI-tjänster. I det här fallet hade angripare skapat en falsk version av Anthropics Claude som erbjöd en påstådd "pro-version" för nedladdning.
Den tekniska genomförandet var imponerande sofistikerat. Installationspaketet innehöll faktiskt den riktiga Claude-applikationen, men samtidigt som användaren såg den bekanta gränssnittet installerades fjärrstyrningsprogrammet PlugX i bakgrunden. Genom att missbruka en signerad uppdaterare från säkerhetsföretaget G DATA kunde angriparna fly under radarn på de flesta antivirusprogram.
Myndigheterna reagerar
Oron har nu nått myndighetsnivå. Enligt Finextra håller brittiska tillsynsmyndigheter brådskande möten med banker och cybersäkerhetsexperter efter farhågor kring säkerhetsrisker som Anthropics nya modell Mythos kan innebära för samhällskritisk infrastruktur.
Dessa "krissamtal" understryker en fundamental utmaning: AI-utvecklingen går så snabbt att regleringsorgan knappt hinner hänga med. När en ny modell lanseras kan dess kapaciteter – och potentiella säkerhetsrisker – vara okända även för utvecklarna själva.
Vad betyder det för svenska användare?
För svenska företag och privatpersoner som använder AI-verktyg innebär denna utveckling flera konkreta risker. Falska AI-sajter blir allt vanligare, och det krävs extra försiktighet när man laddar ner AI-program från tredjepartskällor. Håll dig till officiella webbplatser och app-butiker.
Liksom för alla tekniska genombrott kommer säkerhetsutmaningarna att lösas över tid genom bättre säkerhetsrutiner, strängare kontroller av kodbibliotek och ökad medvetenhet bland användare. Men just nu befinner vi oss i en övergångsfas där hoten utvecklas snabbare än försvarets förmåga att hantera dem.
Vår analys: En mognadsprocess som kräver tålamod
De här attackerna visar att AI-industrin genomgår samma säkerhetsmognad som alla nya tekniska områden. Precis som webbläsare, mobilappar och molntjänster innan dem måste AI-plattformar lära sig att hantera sin popularitet som mål för cyberbrottslingar.
Det positiva är att branschen reagerar snabbt och transparent. OpenAI:s öppna kommunikation om Axios-attacken och deras förebyggande åtgärder visar på en mogen säkerhetskultur. Brittiska myndigheters proaktiva approach signalerar också att man tar säkerhetsfrågorna på allvar utan att stoppa innovation.
Långsiktigt kommer detta leda till robustare AI-system. Supply chain-attacker som den mot Axios accelererar utvecklingen av bättre säkerhetsrutiner för kodbibliotek. Falska AI-sajter kommer att drivas bort av bättre användarutbildning och starkare verifiering.
För svenska organisationer är budskapet tydligt: investera i cybersäkerhetskompetens nu, innan AI-adoption når full fart. De företag som bygger säkra AI-arbetssätt från början kommer att ha betydande konkurrensfördelar.