TikTok misslyckas med AI-märkning av annonser – medan samma innehåll märks korrekt på andra plattformar
TikTok bryter systematiskt mot egna regler för AI-märkning av annonser.
När TikTok introducerade sina riktlinjer för AI-märkning av annonser såg det ut som ett steg i rätt riktning. Annonsörer skulle tydligt märka innehåll som "betydligt redigerat eller genererat" av artificiell intelligens, antingen genom plattformens egna märkningssystem eller genom anpassade varningar.
I praktiken fungerar det inte alls.
Sedan regelverkets införande syns regelbundet omärkta AI-annonser i användarnas flöden, rapporterar The Verge. Det mest iögonfallande exemplet är Samsung, som systematiskt publicerar AI-genererade videor på sina sociala kanaler. Medan samma material på YouTube får korrekta AI-varningar i videobeskrivningarna, saknar TikTok-annonserna helt denna information.
När teknikjättarna inte följer sina egna standarder
Detta är inte bara ett fall av slarvig regelefterlevnad – det är direkt hyckleri. Både Samsung och TikTok är medlemmar i Content Authenticity Initiative, en branschorganisation som aktivt arbetar för ökad innehållsöppenhet. Organisationen främjar användning av C2PA-standarden för att göra innehållsäkthet "skalbar och tillgänglig".
Att samma företag som förespråkar öppenhet sedan ignorerar märkningsregler på sina egna plattformar undergräver hela trovärdigheten för dessa initiativ.
Tekniska hinder eller prioriteringsfråga?
TikToks regler är kristallklara: innehåll med helt AI-genererade bilder, video eller ljud ska märkas. Detsamma gäller när AI får personer att göra eller säga saker de aldrig gjort i verkligheten. Från ett tekniskt perspektiv är detta inte raketforskning – YouTube klarar av det, andra plattformar klarar av det.
Problemet tycks snarare ligga i implementering och efterlevnad. Som systemutvecklare vet jag att sådana här system kräver både automatisk detektering och manuell granskning. Men när stora annonsörer som Samsung får passera genom utan märkning, handlar det troligen mer om bristande vilja än tekniska begränsningar.
Sporadiska framsteg döljer systemproblemet
Visst finns det vissa ljuspunkter. Annonser från vissa företag börjar få korrekt märkning, vilket tyder på att tekniken faktiskt fungerar när den används. Men dessa sporadiska förbättringar döljer det grundläggande problemet: TikTok har byggt ett system som de inte konsekvent använder.
Detta skapar en farlig prejudikat för branschen. När den näst största sociala medieplattformen i världen inte följer sina egna AI-märkningsregler, vilka signaler sänder det till mindre aktörer? Varför skulle de investera i korrekt märkning om marknadsledarens inte gör det?
Användarna betalar priset
I slutändan är det användarna som lämnas i ovisshet. När AI-genererat innehåll cirkulerar omärkt i annonsflöden, undergräver det förtroendet för all information på plattformen. I en tid när vi desperart behöver verktyg för att skilja på äkta och syntetiskt innehåll, går utvecklingen åt fel håll.
Tekniken för att lösa detta finns redan. Viljan att implementera den konsekvent verkar dock saknas.
Vår analys
Detta avslöjar en fundamental utmaning med självreglering i AI-branschen. När stora teknikföretag inte ens följer sina egna regler, blir hela konceptet med frivilliga standarder ifrågasatt. Vi riskerar att hamna i en situation där endast hårdare lagstiftning kan säkerställa korrekt märkning.
Framöver kommer troligen trycket från tillsynsmyndigheter att öka, särskilt i EU där AI-förordningen träder i kraft. TikToks nuvarande approach är ohållbar på lång sikt – antingen måste de själva skärpa regelefterlevnaden, eller så kommer externa aktörer att tvinga fram förändring.
Det mest oroande är hur detta undergräver förtroendet för Content Authenticity Initiative och liknande branschinitiativ. När medlemsföretagen inte lever som de lär, blir det svårt att argumentera mot mer ingripande reglering.