Grammarly tvingades stänga AI-funktion efter att ha skapat falska experter av journalister
Grammarly stängde AI-funktion efter att ha skapat falska experter av journalister.
När innovation krockar med etik
AI-branschen befinner sig i en brytpunkt där tekniska möjligheter ställs mot etiska gränser. Det senaste exemplet kommer från Grammarly, nu omdöpt till Superhuman, som tvingades stänga sin funktion "Expert Review" efter massiv kritik. Företaget hade skapat digitala kopior av journalister utan deras medgivande för att erbjuda skrivråd.
Reaktionerna blev omfattande. Enligt The Verge upptäckte journalister från flera medier att de själva fanns med bland de påstådda experterna – utan att någonsin ha gett sitt samtycke. Den undersökande journalisten Julia Angwin stämde företaget i en grupptalan, och företaget tvingades först erbjuda en möjlighet att avanmäla sig via mejl innan man helt avvecklade funktionen.
Shishir Mehrotra, VD för Superhuman, ställde upp på en intervju trots kontroversierna. Hans företag, som nu äger flera produktivitetsverktyg inklusive dokumentverktyget Coda och mejlklienten Mail, lanserade nyligen Superhuman Go – en tjänst som låter användare skapa egna AI-assistenter.
"Superhuman är den AI-inbyggda produktivitetssviten", förklarade Mehrotra. "Vi för AI till där människor arbetar, istället för att kräva stora förändringar i beteende."
Branschen söker nya vägar
Medan Grammarly-skandalen visar på riskerna med okontrollerad AI-utveckling, pågår parallellt en bredare diskussion om ansvar inom AI-sektorn. Enligt MIT Technology Review har AI-forskare börjat organisera sig kring etiska frågor på ett sätt som påminner om andra branschomställningar.
I februari samlades djurrättsförespråkare och AI-forskare i San Francisco för att diskutera hur artificiell allmän intelligens kan påverka djurskydd. Deltagarna förutspådde en kommande våg av finansiering till djurskyddsorganisationer, inte från traditionella mecenater utan från anställda på AI-laboratorier.
Diskussionerna tog även upp mer filosofiska frågor: kan AI utveckla förmågan att lida? Om så är fallet, skulle det utgöra vad deltagarna kallade "en moralisk katastrof".
Politisk kamp om reglering
På den politiska arenan intensifieras kampen om AI-reglering. Vita huset under president Trump vill att kongressen ska göra den nuvarande lätta regleringen till lag och blockera delstaternas försök att begränsa AI-utvecklingen. Men motstånd växer inom MAGA-rörelsen, där vissa grupper uttrycker oro över teknikens påverkan.
Denna politiska osäkerhet skapar ytterligare komplexitet för företag som försöker navigera mellan innovation och ansvar. OpenAI, till exempel, planerar att börja visa reklam för amerikanska användare av den kostnadsfria versionen av ChatGPT för att hantera skyhöga beräkningskostnader, samtidigt som företaget bygger en helt automatiserad forskare och fördubblar sin personalstyrka.
Framtidens ansvarsutkrävande
Grammarly-fallet illustrerar en grundläggande utmaning: när AI-system kan skapa övertygande digitala representationer av riktiga personer, var går gränsen mellan innovation och intrång? Företagets snabba reträtt visar att marknaden och allmänheten har tydliga förväntningar på transparens och samtycke.
För AI-företag blir budskapet tydligt: teknisk kapacitet räcker inte. Framgångsrika företag måste bygga etiska överväganden direkt in i produktutvecklingen, inte lägga till dem som eftertanke när problemen redan uppstått.
Vår analys
Grammarly-skandalen markerar en vändpunkt för AI-branschens mognad. Vi ser början på vad som kan bli branschens "tobaksmoment" – när företag tvingas ta ansvar för sina produkters samhälleliga påverkan.
Utvecklingen pekar mot tre trender: Först, ökad juridisk prövning där stämningar som Julia Angwins blir vanligare. Andra företag kommer att tänka två gånger innan de lanserar liknande funktioner. Andra, växande intern organisering inom AI-sektorn kring etiska frågor, som vi ser med djurrättsinitiativet. Tredje, fragmenterad politisk reglering som skapar osäkerhet.
För företagsledare betyder detta att etik måste bli en konkurrensfördel, inte bara en kostnad. Företag som proaktivt bygger in transparens och samtycke kommer att vinna förtroende på bekostnad av de som väntar tills problemen exploderar. Grammarlys snabba vändning visar att marknaden redan straff ar dåliga etiska val – politikerna behöver bara hänga med.