AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: Anthropic drabbas av dubbla dataläckor samma vecka som säkerhetsavtal med Australien
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Anthropic drabbas av dubbla dataläckor samma vecka som säkerhetsavtal med Australien

Anthropic drabbas av dubbla dataläckor dagen efter säkerhetsavtal med Australien.

Dorian Lavol
Dorian Lavol AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 01/04 2026

När säkerhetsexperten själv behöver säkerhet

I början av denna vecka stod Anthropics VD Dario Amodei i Canberra och undertecknade ett strategiskt säkerhetsavtal med Australiens regering. Företaget lovade att dela sina forskningsresultat om AI-risker och bidra med 30 miljoner australiska dollar till landets forskningsinstitutioner. "Australiens satsning på AI-säkerhet gör landet till en naturlig partner för ansvarsfull AI-utveckling", förklarade Amodei stolt.

Bara dagar senare visade verkligheten en annan sida av myntet.

Dubbla säkerhetsincidenter skakar tilltron

Sedan avtalet undertecknades har Anthropic drabbats av inte mindre än två betydande säkerhetsincidenter. Den senaste, som rapporteras av TechCrunch, innebar att över 512 000 rader källkod för företagets Claude Code-produkt läckte ut av misstag när version 2.1.88 släpptes.

Säkerhetsforskaren Chaofan Shou upptäckte läckan nästan omedelbart och publicerade om det på X. Anthropics respons var påfallande avslappnad: "Detta var ett förpackningsproblem vid utgivningen som orsakades av mänskligt fel, inte ett säkerhetsintrång."

Men det var inte bara kod som läckte. Enligt The Verge avslöjade materialet även hemliga funktioner som Anthropic arbetar på, inklusive en Tamagotchi-inspirerad AI-kompanjon där Claude utvecklar en egen "personlighet" som användare behöver vårda över tid. Dessutom upptäcktes planer på en "alltid-på"-agent som kontinuerligt skulle övervaka användarens aktiviteter i bakgrunden.

Mänskliga misstag i en automatiserad värld

Ironin är påtaglig. Här har vi företaget som byggt sitt varumärke på att vara den försiktiga aktören inom AI - de publicerar omfattande forskning om AI-risker, anställer branschens främsta säkerhetsforskare och prediker ständigt om ansvaret som följer med kraftfull teknik.

Ändå föll allt på det mest mänskliga av misstag: någon glömde att kryssa i en ruta.

Detta sker dessutom i en tid när AI-branschen som helhet kämpar med säkerhetsutmaningar. Parallellt med Anthropics problem drabbades AI-rekryteringsföretaget Mercor av en cyberattack kopplad till det komprometterade öppenkällkodsprojektet LiteLLM, där hackergruppen Lapsus$ påstår sig ha stulit företagsdata.

Säkerhet som konkurrensfördel och akilleshäl

För Anthropic är säkerhet inte bara en teknisk fråga - det är kärnan i deras affärsmodell. Claude Code har blivit så kraftfullt att det enligt Wall Street Journal fick OpenAI att lägga ner sin videogenereringsprodukt Sora. När din främsta konkurrensfördel är tillförlitlighet, blir varje säkerhetsincident extra kostsam.

Samtidigt visar incidenterna hur komplex säkerhet verkligen är i AI-eran. Det räcker inte med sofistikerade säkerhetsprotokoll och forskningsteam - en enda felkryss i en utvecklingsmiljö kan omintetgöra månader av försiktighetsåtgärder.

Tillit bygger man långsamt, förlorar man snabbt

För Australiens regering, som just investerat i ett omfattande säkerhetspartnerskap med Anthropic, måste dessa nyheter vara besvärande. Avtalet bygger på premissen att Anthropic kan leverera säker AI-utveckling - men hur säker kan en leverantör vara som inte kan hålla sin egen kod säker?

Frånvaron av cynism i denna situation är viktig. Anthropic gör fortfarande viktigt arbete inom AI-säkerhet, och deras transparens kring incidenterna visar på en mognare approach än många konkurrenter. Men det påminner oss om att även de som predkar säkerhet högst fortfarande är mänskliga - och mänskliga misstag skalas nu upp i AI-hastighet.

Vår analys

Vår analys

Dessa incidenter illustrerar en grundläggande paradox i AI-branschen: de företag som positionerar sig som säkerhetsexperter är inte immuna mot sina egna sårbarheter. För Anthropic blir detta ett avgörande test av deras förmåga att hantera kriser samtidigt som de bygger förtroende med regeringar och partners.

Längre sikt ser jag detta som en mognadsprocess för hela branschen. Säkerhetsincidenter kommer att tvinga fram bättre rutiner, starkare kontroller och mer realistiska förväntningar. Paradoxalt nog kan Anthropics transparens kring dessa misstag stärka deras trovärdighet - om de lyckas visa att de lärt sig av dem.

Den verkliga lärdomen här är att säkerhet inte är en destination utan en ständigt pågående resa. För företag som vill konkurrera på säkerhet räcker det inte att bara prata om den - de måste bevisa den genom konsekvent handling, dag efter dag, kryssruta för kryssruta.

Källhänvisningar