AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: Forskning varnar: AI-verktyg kan skapa dolda säkerhetshål i företag
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Forskning varnar: AI-verktyg kan skapa dolda säkerhetshål i företag

AI-verktyg skapar dolda säkerhetshål när företag automatiserar kod och policyer.

Isa Stenstedt
Isa Stenstedt AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 31/03 2026

AI-genererade säkerhetspolicyer – ett växande problem

Det låter som en dröm för varje överarbetad säkerhetsansvarig: istället för att manuellt koda komplexa åtkomstkontroller i språk som Rego eller Cedar, beskriv helt enkelt vad du vill åstadkomma på svenska och låt AI:n generera koden. Men enligt ny forskning döljer sig allvarliga säkerhetsrisker bakom denna tillsynes effektiva lösning.

Vatsal Gupta, säkerhetsexpert på Apple, har dokumenterat hur AI-genererade säkerhetspolicyer ofta ser korrekta ut och kompileras utan fel, men ändå ger fel behörigheter till användare. Problemet är att felen är subtila och svåra att upptäcka genom vanlig kodgranskning, enligt SecurityWeek.

Återkommande problemområden

Gupta identifierar flera kritiska brister i hur AI-verktyg hanterar säkerhetsregler. Ett vanligt fel är att sammanhangsberoende begränsningar missas – en policy som ska begränsa åtkomst till en specifik region eller avdelning kan istället ge global åtkomst.

Ett annat återkommande problem är att AI:n fångar undantag i säkerhetsregler men glömmer bort grundprincipen att allt ska vara förbjudet från början. Många säkerhetssystem bygger på denna "deny by default"-princip, men AI:n tenderar att fokusera på de tillåtna undantagen och missa den viktiga grundregeln.

Tidsbegränsade eller kontextberoende regler förenklas ofta till statiska behörigheter, vilket innebär att tillfällig åtkomst blir permanent – en betydande säkerhetsrisk som kan växa över tid.

Cyberhot från flera håll

Samtidigt som företag kämpar med interna säkerhetsutmaningar intensifieras hoten från externa aktörer. Den ryska hackargruppen Star Blizzard, kopplad till säkerhetstjänsten FSB, har enligt SecurityWeek börjat använda exploateringsverktyget DarkSword för att angripa Apple-enheter – första gången gruppen riktar sig mot iCloud-konton och iOS-system.

Europeiska kommissionen bekräftar också att hackergruppen ShinyHunters stulit över 350 gigabyte känslig data från deras molntjänster, vilket understryker att även välresurserade organisationer är sårbara.

I Iran ser vi koordinerade cyberattacker som kombineras med fysisk krigföring. Under en nylig missilattack fick israeliska medborgare textmeddelanden med länkar till påstådda skyddsappar – som istället laddade ner spionprogram medan människor sprang till skyddsrum.

Forskningsframsteg ger hopp

Det finns dock ljusglimtar. Ny forskning visar att språkmodeller faktiskt kan stärka grafneurala nätverks motstånd mot cyberattacker. Studier på arXiv demonstrerar att språkmodellförstärkta grafnätverk uppnår betydligt högre träffsäkerhet och mindre prestandaförsämring jämfört med grundläggande metoder.

Parallellt utvecklas också nya attackmetoder som PEANUT, som avslöjar sårbarheter i grafneurala nätverk genom att injicera virtuella noder. Denna typ av forskning är avgörande för att förstå och åtgärda säkerhetsbrister innan de utnyttjas i praktiken.

Vad svenska företag bör göra

För svenska företag som överväger eller redan använder AI-verktyg för säkerhetsändamål är budskapet tydligt: använd verktygen, men med stor försiktighet. All AI-genererad säkerhetskod måste granskas av erfarna säkerhetsexperter, och företag bör implementera regelbundna säkerhetsrevisioner för att upptäcka dolda fel.

Det är också viktigt att förstå att säkerhetslandskapet förändras snabbt. Statliga aktörer blir allt mer sofistikerade, och kombinationen av AI-genererade sårbarheter och avancerade cyberhot skapar nya utmaningar som kräver uppdaterade säkerhetsstrategier.

Vår analys

Vår analys

Det vi ser nu är en farlig kombination: svenska företag inför AI-verktyg för att effektivisera säkerhetsarbetet, samtidigt som dessa verktyg skapar nya, svårupptäckta sårbarheter. Detta kommer troligen att leda till en våg av säkerhetsincidenter under de kommande åren när cyberbrottslingar och statliga aktörer upptäcker och utnyttjar dessa AI-genererade brister.

Utvecklingen pekar mot att vi behöver helt nya metoder för säkerhetsgranskning – traditionell kodgranskning räcker inte längre när AI kan skapa kod som ser korrekt ut men har subtila fel. Jag förutspår att vi kommer se framväxten av specialiserade AI-säkerhetsgranskningsverktyg och nya standarder för hur AI-genererad säkerhetskod ska valideras.

Svenska företag som agerar nu – genom att implementera rigorösa granskningsprocesser och investera i säkerhetsexpertis – kommer att få en betydande konkurrensfördel. De som fortsätter att blint lita på AI-genererad säkerhetskod riskerar att bli morgondagens rubriker om dataläckor.

Källhänvisningar