AI-säkerheten krackelerar medan företagen lanserar nya verktyg
AI-säkerheten krackelerar medan företagen lanserar nya verktyg.
När säkerheten blir en dubbeleggad värja
AI-branschen befinner sig just nu i ett paradoxalt läge. Å ena sidan lanserar OpenAI sin GPT-5.4-Cyber, en specialiserad modell för att upptäcka säkerhetsbrister i mjukvara, enligt Ny Teknik. Konkurrenten Anthropic har svarat med sin egen säkerhetsmodell Mythos. Men bakom denna teknologiska kapprustning döljer sig en oroande verklighet – de grundläggande säkerhetsbrister som gör AI-system sårbara för storskaliga angrepp.
Den mest alarmerande upptäckten kommer från säkerhetsföretaget OX Security, som enligt SecurityWeek har identifierat en arkitektonisk brist i Anthropics Model Context Protocol (MCP). Detta protokoll, som lanserades i november 2024 som en standardkoppling mellan AI-agenter och data, används nu av miljontals användare. Problemet? Systemet kan luras att köra skadliga kommandon även när processen misslyckas – utan rensning, varningar eller säkerhetskontroller.
Testningen visade att angripare kan stjäla känslig data, komma åt interna företagssystem och till och med ta fullständig kontroll över datorsystem. När OX Security rapporterade sina fynd var den initiala responsen från Anthropic svag – många hävdade att beteendet var "avsiktligt".
Storskaliga angrepp blir verklighet
Medan AI-företagen kämpar med protokollsäkerhet visar verkligheten redan vad som händer när säkerheten brister. Cybersäkerhetsföretaget Socket har avslöjat en omfattande kampanj där över 100 skadliga Chrome-tillägg stjäl användardata från mer än 20 000 användare, rapporterar SecurityWeek.
Ännu mer skrämmande är upptäckten från Huntress: en enda oregistrerad domän som kostade bara 80 kronor kunde gett cyberbrottslingar tyst kontroll över 25 000 datorer världen över, inklusive system inom känsliga infrastrukturer och myndigheter. Skadeprogrammet, förklätt som reklamprogramvara från Dragon Boss Solutions, hade utvecklats från harmlös mjukvara till något som aktivt stänger av säkerhetsprodukter.
Parallellt sprids den sofistikerade trojanska hästen Mirax genom falska IPTV-annonser på Meta-plattformar och har redan nått över 200 000 Android-användare i Europa, enligt Cleafy. Skadeprogrammet erbjuds som "skadeprogramvara som tjänst" och kan både stjäla inloggningsuppgifter och använda infekterade enheter som proxyservrar.
Även säkerhetsföretagen drabbas
Ironiskt nog drabbas även de företag som ska skydda oss. Fortinet, en av världens största cybersäkerhetsleverantörer, har varit tvungna att åtgärda 27 sårbarheter i sina produkter, varav två klassas som kritiska med CVSS-poängen 9,1. Dessa brister i FortiSandbox kan utnyttjas utan autentisering för att kringgå säkerhet eller köra godtycklig kod.
Kampen om framtidens säkerhet
Vad vi ser är inte bara isolerade säkerhetsincidenter – det är tecken på en fundamental förändring i hotlandskapet. AI-tekniken blir både vapen och sköld i denna nya verklighet. OpenAI:s försiktiga utrullning av sin säkerhetsmodell till endast hundratals användare initialt visar att även de mest avancerade AI-företagen förstår riskerna.
Problemet är att medan säkerhetsföretagen utvecklar AI-drivna försvar, utvecklar cyberkriminella samtidigt AI-förstärkta angrepp. Mirax-kampanjen visar hur sofistikerade dessa angrepp redan blivit – från målriktad reklam på sociala medier till avancerad skadeprogramvara-som-tjänst.
Vår analys
Detta är inte längre en fråga om enstaka säkerhetsbrister – vi bevittnar en systemisk kris där grundläggande AI-infrastruktur visar sig vara fundamentalt osäker. Det faktum att Anthropics MCP-protokoll, som används av miljontals användare, kan komprometteras så enkelt visar att branschen har prioriterat hastighet framför säkerhet.
Särskilt oroande är skalfördelarna för cyberkriminella. En 80-kronors domän som kan kontrollera 25 000 datorer, eller Chrome-tillägg som når 20 000 användare, visar hur små investeringar kan ge enorma utdelningar för skurkar. Samtidigt kräver försvar massiva resurser och koordinering.
Framtiden kommer att präglas av en acceleration av denna vapenkapprust. AI-företagens säkerhetslösningar är viktiga, men måste kombineras med grundläggande förändringar i hur vi bygger och distribuerar AI-system. Branschens nuvarande tillvägagångssätt – lansera först, säkra sedan – är ohållbart när systemen når miljontals användare.