Tekniskt odugliga hackare stjäl 130 miljoner med hjälp av AI
Nordkoreanska hackare utan programmeringskunskap stjäl 130 miljoner med AI-hjälp.
När AI blir hackarens främsta verktyg
Cybersäkerhet handlar traditionellt om att bygga höga murar mot skickliga angripare. Men vad händer när artificiell intelligens plötsligt gör det möjligt för tekniskt osofistikerade aktörer att genomföra omfattande cyberattacker? Det är precis vad som hänt i ett fall som cybersäkerhetsföretaget Expel avslöjade denna vecka.
Enligt Wired har en nordkoreansk hackargrupp, döpt till HexagonalRodent, använt AI-verktyg från OpenAI, Cursor och Anima för att stjäla över 12 miljoner dollar i kryptovalutor. Det mest anmärkningsvärda är inte storleken på stölden, utan hur gruppen "vibbat fram" nästan hela sin operation med hjälp av AI – trots att de saknar grundläggande programmeringskunskaper.
Från kod till webbplatser – allt AI-genererat
Som systemutvecklare fascinereras jag av den tekniska implementeringen. Hackarna använde AI för att:
- Skriva skadlig kod för lösenordsstölder
- Skapa falska företagswebbplatser som såg professionella ut
- Sätta upp infrastruktur för sina attacker
- Designa lockbeten i form av falska jobberbjudanden
Säkerhetsforskaren Marcus Hutchins, som upptäckte gruppen, beskriver situationen träffande: "Dessa aktörer har inte färdigheterna att skriva kod. De har inte färdigheterna att sätta upp infrastruktur. AI gör det faktiskt möjligt för dem att göra saker som de annars helt enkelt inte skulle kunna göra."
Utvecklare i skottlinjen
Operationen riktade sig specifikt mot utvecklare inom kryptovalutor, NFT-projekt och Web3. Genom falska jobberbjudanden lockade hackarna offer att ladda ner vad som såg ut som legitima utvecklingsverktyg, men som i själva verket var lösenordsstjälande programvara.
Det här angreppssättet är särskilt listigt eftersom det utnyttjar utvecklares naturliga nyfikenhet och vilja att utforska nya verktyg. Som någon som själv arbetar inom branschen vet jag hur lätt det är att ladda ner och testa nya programmeringsverktyg utan att först granska dem noggrant.
En ny kategori av hot
Vad som gör detta fall så betydelsefullt är att det representerar en helt ny kategori av cyberhot. Traditionellt har avancerade cyberattacker krävt omfattande teknisk expertis – något som fungerat som en naturlig barriär. Nu har AI sänkt den barriären dramatiskt.
Hackargruppen installerade sin skadliga kod på över 2 000 datorer och lyckades stjäla betydande summor innan de upptäcktes. Detta visar att AI inte bara teoretiskt kan missbrukas, utan redan aktivt används av illvilliga aktörer för att utföra lönsamma brott.
Säkerhetsverktyg måste utvecklas
Fallet understryker behovet av att cybersäkerhetsverktyg utvecklas i samma takt som AI-verktygens kapacitet. När AI gör det möjligt för mindre skickliga angripare att skapa sofistikerade attacker, måste försvarssidan också utnyttja AI för att upptäcka och stoppa dessa nya typer av hot.
Det här är inte en anledning att frukta AI-utvecklingen, utan snarare ett påminnelse om att vi måste bygga säkerhetsaspekter in från grunden när vi utvecklar och distribuerar AI-verktyg.
Vår analys
Detta fall markerar en vändpunkt inom cybersäkerhet där AI demokratiserar både möjligheterna och hoten. När verktyg som ChatGPT och liknande tjänster gör avancerad kodgenerering tillgänglig för alla, måste vi räkna med att även cyberbrottslingar kommer att dra nytta av dessa möjligheter.
Framöver kommer vi troligen se en eskalerande kapprustning där både angripare och försvarare använder allt mer sofistikerade AI-verktyg. Detta kräver att säkerhetsföretag investerar tungt i AI-baserade försvarsmekanismer och att utvecklingsverktyg implementerar bättre säkerhetskontroller.
På längre sikt kan detta leda till striktare reglering av hur AI-verktyg distribueras och används, särskilt för kodgenerering och infrastrukturutveckling. Vi behöver hitta balansen mellan att främja innovation och att förhindra missbruk.