"Det handlar inte bara om... det handlar om" – formuleringen som avslöjar AI-skriven text
Denna formulering avslöjar nästan garanterat att texten är AI-skriven.
"Det handlar inte bara om det ena — det handlar om det andra." Om du läser den meningen i ett pressmeddelande eller företagsdokument idag, är chansen stor att texten är skapad av artificiell intelligens.
Enligt en ny rapport från finanstidningen Barron's har just denna meningsstruktur blivit ett nästan säkert tecken på AI-genererat innehåll. Genom att analysera AlphaSenses databas fann tidningen att formuleringen ökat dramatiskt i företagskommunikation — från omkring 50 omnämnanden 2023 till över 200 fall under 2025. Det är en fyrafaldig ökning på bara två år.
Teknikjättarnas avslöjande språk
Exemplen från stora teknologiföretag talar sitt tydliga språk. Microsoft skrev: "Det handlar inte bara om att bygga verktyg för specifika roller eller uppgifter. Det handlar om att bygga verktyg som ger alla möjlighet att skapa sina egna verktyg." Cisco formulerade sig: "Under 2025 kommer AI inte bara vara ett verktyg; det kommer vara en medarbetare."
Att AI-verktyg använder denna fras så frekvent är ingen tillfällighet — det återspeglar det mänskliga skrivande som modellerna tränats på, men koncentrerat och förvrängt.
Symptom på ett större problem
Men fenomenet pekar på något djupare än bara språkliga markörer. Som The Verge rapporterar finns det en växande tendens inom teknikbranschen att presentera gamla idéer som revolutionerande upptäckter. En bekant inom branschen beskrev nyligen "sin banbrytande upptäckt" att kunskap är strukturerad i språk — något som språkvetare som Ferdinand de Saussure utvecklade för över hundra år sedan.
Detta speglar en problematisk självgodhet där teknikentusiaster antingen är så isolerade att de inte förstår att deras "upptäckt" är välkänd inom andra områden, eller tror att de är så smarta att om de inte känner till något, så känner ingen till det.
Vad betyder det för trovärdigheten?
När AI-genererat innehåll blir allt svårare att upptäcka på andra sätt, blir sådana språkliga fingeravtryck ovärderliga. Men de skapar också en katt-och-råtta-lek: ju mer medvetna vi blir om dessa markörer, desto snabbare kommer AI-systemen att utvecklas för att undvika dem.
Problemet är inte att företag använder AI för att skriva — det är att de ofta gör det utan transparens. När pressmeddelanden och finansiella rapporter blir allt mer standardiserade och robotliknande, riskerar vi att förlora den mänskliga bedömning och reflektion som faktiskt tillför värde.
För oss som arbetar med teknik är det här både fascinerande och oroande. Vi kan se hur språkmodeller exponerar sina egna begränsningar genom dessa repetitiva mönster. Samtidigt visar det hur viktigt det blir att utveckla bättre verktyg för att identifiera AI-genererat innehåll — inte för att straffa användningen, utan för att säkerställa transparens i kommunikationen.
Vår analys: Det här fenomenet illustrerar ett kritiskt vägskäl för informationsintegritet online. När AI-verktyg blir så utbredda att de skapar identifierbara språkliga fingeravtryck, står vi inför två parallella utmaningar.
Å ena sidan ger dessa markörer oss tillfälliga verktyg för att upptäcka AI-genererat innehåll — något som blir allt viktigare när modellerna blir mer sofistikerade. Å andra sidan är det här bara början på en teknikvårdsjakt där varje upptäckt språklig markör snabbt kommer att elimineras i nästa generation av modeller.
Den verkliga frågan är inte hur vi upptäcker AI-genererad text, utan hur vi skapar system för transparens och ansvarighet. Företag borde märka AI-genererat innehåll öppet, precis som vi märker andra automatiserade processer. Detta handlar om att bygga förtroende, inte dölja verktyg.