Hackare kan stjäla data från 300 000 AI-servrar med tre enkla kommandon
Tre kommandon räcker för att stjäla data från 300 000 AI-servrar.
Kritisk sårbarhet hotar AI-infrastruktur
En allvarlig säkerhetsbrist som fått smeknamnet "Bleeding Llama" har upptäckts i AI-plattformen Ollama, vilket enligt SecurityWeek exponerar cirka 300 000 servrar för potentiell datastöld. Sårbarheten, catalogiserad som CVE-2026-7482, påverkar Ollamas GGUF-modulladdare och kan utnyttjas av angripare med bara tre enkla API-anrop.
Det som gör denna attack särskilt farlig är dess enkelhet. Angripare kan använda en specialutformad fil som tvingar systemet att läsa utanför den tilldelade minnesbufferten, vilket ger tillgång till känslig information som användarpromter, meddelanden och kritiska miljövariabler med API-nycklar.
"Angriparen kan sedan använda Ollamas inbyggda funktion för modellöverföring för att stjäla den resulterande filen – komplett med stulen minnesdata – till en server under angriparens kontroll", förklarar säkerhetsföretaget Cyera som upptäckte bristen.
Problemet förvärras av att Ollama som standard startar utan autentisering och lyssnar på alla nätverksgränssnitt. Detta innebär att alla internetåtkomliga instanser är sårbara för angrepp från första dagen.
Nya metoder för att kringgå AI-säkerhet
Simultant utvecklas nya tekniker för att "befria" AI-system från sina säkerhetsbegränsningar. Säkerhetsforskaren Joey Melo från CrowdStrike har utvecklat metoder som påminner om hur han som barn modifierade datorspel – att kontrollera upplevelsen utan att ändra de grundläggande reglerna.
Melos approach till AI-hackning går inte ut på att plocka isär system för att bygga om dem. "Man kunde ändra i filerna, leta efter spelets konfigurationer, byta namn på robotarna eller ändra karaktärernas hastighet och färgerna på uniformerna. Jag tyckte alltid om att experimenta istället för att bara spela som det var tänkt", förklarar han enligt SecurityWeek.
Denna filosofi har lett till utveckling av så kallad "röd lag"-testning av AI-system, där forskare systematiskt utmanar säkerhetsbegränsningar för att hitta svagheter innan illasinnade aktörer gör det.
Vad kan svenska företag göra?
För svenska företag som använder AI-system är situationen akut. Ollama är populärt bland utvecklare för att köra stora språkmodeller lokalt, vilket betyder att många organisationer kan vara påverkade utan att veta om det.
Omedelbara åtgärder:
- Inventera alla AI-system och kontrollera om Ollama används i organisationen
- Uppdatera till den senaste versionen av Ollama omedelbart
- Konfigurera brandväggsregler för att begränsa åtkomst till AI-servrar
- Implementera autentisering för alla AI-tjänster
Långsiktiga strategier:
- Etablera regelbundna säkerhetstester specifikt för AI-system
- Utbilda utvecklingsteam om AI-specifika säkerhetshot
- Skapa incidenthanteringsplaner för AI-relaterade säkerhetshändelser
- Överväg att anlita specialister för "röd lag"-testning av AI-infrastrukturen
Det är också viktigt att förstå att AI-säkerhet skiljer sig från traditionell IT-säkerhet. Medan klassiska säkerhetshot fokuserar på att kompromettera system på teknisk nivå, kan AI-specifika angrepp utnyttja modellernas beteende och träningsdata på sätt som kräver helt nya försvarstekniker.
Organisationer bör inte bara fokusera på att skydda infrastrukturen, utan också på att förstå hur deras AI-modeller kan manipuleras eller luras att avslöja information de inte borde. Detta kräver en kombination av teknisk expertis och förståelse för hur AI-system faktiskt fungerar i praktiken.
Vår analys
Dessa parallella utvecklingar – massiv exponering av befintliga system och förfinade attacktekniker – markerar en kritisk vändpunkt för AI-säkerhet. Vi ser början på en ny era där AI-specifika hot kräver helt nya försvarstekniker.
Vad som är särskilt oroande är kombinationen av skala och enkelhet. När 300 000 servrar kan komprometteras med tre API-anrop, medan forskare samtidigt utvecklar sofistikerade metoder för att kringgå AI-säkerhet, blir det tydligt att branschen behöver mogna snabbt på säkerhetsfronten.
För svenska företag innebär detta både utmaning och möjlighet. De organisationer som investerar i AI-säkerhet nu kommer att ha en konkurrensfördel när regelverket skärps och kunderna blir mer medvetna om riskerna. Framtidens AI-ledare blir de som kan kombinera innovation med robust säkerhet från dag ett.