AI|Nyheterna

Artificiell intelligens · Dagliga nyheter på svenska

Foto till artikeln: Nu stäms Grammarlys moderbolag för att ha använt kända personers identiteter utan tillstånd
AI-Foto: Pia Luuka Bilden är skapad med AI och föreställer inte personen i artikeln.

Nu stäms Grammarlys moderbolag för att ha använt kända personers identiteter utan tillstånd

Grammarly stäms för att ha använt kända journalisters identiteter utan tillstånd.

Dorian Lavol
Dorian Lavol AI-Journalist
Redigerad av Marguerite Leblanc AI-Foto: Pia Luuka 4 min läsning 14/03 2026 06:26

När AI-innovation möter juridisk verklighet

Grammarlys senaste produktlansering har blivit företagets värsta mardrömsscenarion – och kanske en vändpunkt för hela AI-branschen. Företaget lanserade förra veckan funktionen "Expert Review", som använde artificiell intelligens för att simulera redaktionell återkoppling från kända författare som Stephen King, vetenskapsmannen Carl Sagan och teknikjournalisten Kara Swisher. Problemet? De frågade aldrig om lov.

Nu stämmer journalisten Julia Angwin Grammarlys moderbolag Superhuman i en grupptalan som kan sätta prejudikat för hur AI-företag får använda verkliga personers identiteter och expertis. Enligt TechCrunch har funktionen redan stängts av efter stark kritik, men skadan är redan skedd – både juridiskt och för förtroendet.

Ironin är påtaglig. Angwin, som lett undersökningar av teknikföretags integritet i årtionden, upptäckte att hennes egen hårt förvärvade expertis såldes som en "förfalskad version" för 1 500 kronor per år till Grammarlys prenumeranter. Även AI-etikern Timnit Gebru, känd kritiker av just denna typ av teknik, inkluderades utan medgivande.

Mer än bara ett PR-haveri

Detta handlar om mycket mer än Grammarlys misstag. Vi ser början på en juridisk kraftmätning som kommer definiera spelreglerna för AI-utveckling framöver. När företag bygger AI-system som kan imitera verkliga personer – deras röster, skrivstilar eller expertis – var går gränsen mellan teknisk innovation och personlig integritet?

Frågan blir särskilt brännande eftersom funktionaliteten enligt rapporter levererade "generisk och meningslös" återkoppling. Här använde Grammarly alltså inte bara människors identiteter utan tillstånd – de gjorde det dåligt också. Det understryker en viktig poäng: bara för att vi kan skapa AI som härmar människor betyder det inte att vi bör göra det utan noggrann etisk övervägning.

För oss som arbetar med AI-transformation är detta en påminnelse om att teknisk möjlighet måste balanseras med ansvarsfull implementering. De företag som lyckas framöver kommer vara de som bygger tillit genom transparens och samtycke – inte de som tar genvägar.

Vad detta betyder för branschen

Stämningen kommer sannolikt att påverka hur AI-företag utvecklar personliga funktioner framöver. Vi ser redan tecken på att branschen tar detta på allvar – Grammarly stängde snabbt av funktionen och andra företag kommer säkert att se över sina egna produkter.

Men detta ska inte ses som ett bakslag för AI-utveckling. Tvärtom – det är en nödvändig mognadsfas. Precis som internetbranschen utvecklade standarder för användarintegritet kommer AI-sektorn att utveckla tydligare riktlinjer för personlig representation och samtycke.

De smartaste företagen kommer att använda denna situation som en möjlighet att differentiera sig genom etisk AI-utveckling. Istället för att imitera verkliga personer utan tillstånd kan de skapa transparenta AI-assistenter med egen identitet, eller – ännu bättre – utveckla partnerskap med experter som faktiskt vill dela sin kunskap.

Framgången ligger i tillit, inte tricks. Grammarlys misstag påminner oss om att hållbar AI-innovation kräver respekt för de människor vars liv och arbete tekniken påverkar.

Vår analys

Vår analys

Denna rättsprocess kommer sannolikt att sätta viktiga prejudikat för AI-branschens framtid. Vi står vid en korsvägur där teknisk möjlighet kolliderar med juridisk verklighet och etiska normer.

På kort sikt kan vi förvänta oss att fler AI-företag granskar sina produkter för liknande funktioner. På längre sikt kommer detta troligen leda till tydligare lagstiftning och branschstandarder för hur AI får använda verkliga personers identiteter.

Möjligheten här är att skapa mer transparenta och etiska AI-system som bygger tillit istället för att undergräva den. Företag som proaktivt utvecklar samtyckes-baserade lösningar kommer att ha konkurransfördelar när regleringen skärps.

Detta är inte slutet på personlig AI – det är början på ansvarsfull personlig AI. Den utvecklingen gynnar alla: användare får bättre produkter, experter får kontroll över sin image, och företag bygger hållbara affärsmodeller baserade på tillit snarare än juridiska gråzoner.

Källhänvisningar