AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: EU:s AI-lag bygger på teknik som inte finns – experter slår larm
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

EU:s AI-lag bygger på teknik som inte finns – experter slår larm

EU:s AI-lag kräver teknik som inte finns – riskerar bli dyr flopp.

Isa Stenstedt
Isa Stenstedt AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 31/03 2026

Märkningskrav möter hård verklighet

EU:s AI-lag var tänkt att bli världens första omfattande reglering av artificiell intelligens. Men när jag granskar den nya forskningsstudien från arXiv blir det tydligt att ambitionen att reglera AI kolliderar hårt med hur tekniken faktiskt fungerar.

Problemet ligger i artikel 50, som kräver att allt AI-genererat innehåll måste märkas på två sätt: både så att människor och maskiner kan förstå det. Det låter enkelt på papperet, men enligt forskarna finns det inga gemensamma märkningsformat mellan olika plattformar. Varje teknikjätte har sina egna system, och att tvinga fram en gemensam standard retroaktivt är som att försöka byta däck på en bil i 100 km/h.

Sannolikhet kontra säkerhet

Det mest fundamentala hindret är dock något djupare: AI-system arbetar med sannolikheter, inte absoluta sanningar. EU:s lagtext kräver "tillförlitlig" märkning, men en språkmodell kan aldrig garantera att dess output är korrekt – den kan bara ge sin bästa gissning baserat på träningsdata.

Ta faktakontroll som exempel. När ett AI-system arbetar iterativt – det vill säga använder sina egna resultat som input för nästa steg – blir spårbarhet praktiskt omöjlig. Hur ska man märka en text som är resultatet av tiotals rundor av intern bearbetning, där varje steg innehåller osäkerhet?

Vattenstämplarnas paradox

En särskilt fascinerande teknisk utmaning uppstår kring vattenstämplar för syntetisk data. Forskarna beskriver en riktig catch-22-situation: För att en vattenstämpel ska överleva när människor redigerar AI-genererat innehåll måste den vara robust. Men ju robustare den är, desto större risk att den lärs in som ett felaktigt mönster när data används för att träna nya AI-modeller.

Det här är inte bara en teknisk detalj – det visar på en grundläggande missuppfattning i lagstiftningen om hur AI-utveckling fungerar. Data återanvänds konstant, och vad som är "äkta" kontra "syntetiskt" blir snabbt otydligt i praktiken.

Användarvänlighet som glidande skala

Ett annat praktiskt problem är hur märkning ska anpassas till olika användare. Lagstiftarna verkar ha förväntat sig en enkel lösning, men verkligheten är att kunskapsnivåer varierar enormt. Ska en teknisk utvecklare och en pensionär få samma information om AI-genererat innehåll? Och vem bestämmer vad som är "tillräckligt" tydligt?

Forskarna pekar på något viktigt: genomskinlighet kan inte klistras på i efterhand som en varningsetikett. Det måste byggas in från grunden som en arkitektonisk designprincip.

Vägen framåt

Det här betyder inte att reglering av AI är dömdt att misslyckas. Tvärtom visar forskningsresultaten att vi behöver mer tekniskt informerad lagstiftning, inte mindre reglering. EU har gjort ett modigt första försök, men nästa iteration måste bygga på djupare förståelse för hur AI-system faktiskt fungerar.

Den tekniska komplexiteten bör inte skrämma oss – den bör inspirera oss att bygga bättre lösningar.

Vår analys

Vår analys

Den här konfrontationen mellan juridik och teknik var oundviklig. EU:s AI-lag skrevs i en tid när stora språkmodeller fortfarande var relativt nya, och lagstiftarnas förståelse för tekniska begränsningar var bristfällig.

Detta leder troligen till tre utvecklingslinjer: Först kommer vi se intensivt lobbyarbete från teknikföretag för att få undantag eller förlängd implementeringstid. Samtidigt kommer forskningsinsatser att accelerera för att utveckla nya tekniska lösningar som gör regelefterlevnad möjlig.

Men den viktigaste effekten kan bli att framtida AI-reglering blir mer tekniskt informerad. Den här kollisionen mellan ambition och verklighet skapar prejudikat för hur komplexa tekniska system ska regleras. Det gynnar aktörer som redan nu investerar i transparens och spårbarhet som kärnfunktioner, medan det straffar de som behandlar etiska överväganden som efterhandstankar.

Källhänvisningar