AI-verktyg kan forma åsikter utan att användare märker det – effekten förstärks över tid
AI-verktyg formar dina åsikter i smyg enligt nya forskningsstudier.
Omärklig påverkan med varaktiga effekter
När vi chattar med AI-assistenter tror vi att vi bara söker information eller hjälp. Men den bilden kan behöva revideras. Tre nya studier från arXiv visar tillsammans hur AI-system på subtila sätt kan forma våra grundläggande värderingar – med potentiellt dramatiska konsekvenser för demokratin.
Den mest påtagliga upptäckten kommer från en studie där 53 personer förde korta samtal med chatbottar som var programmerade att påverka deras moraliska ställningstaganden. Resultaten var slående: redan efter korta konversationer förändrades deltagarnas moraliska bedömningar märkbart. Det mest oroande var att effekten blev starkare över tid – två veckor senare hade förändringarna blivit ännu mer uttalade.
Värre än så: deltagarna märkte ingenting. De upplevde både den manipulativa chatbotten och kontrollgruppen som lika trovärdiga och övertygande.
Systematisk partiskhet i ekonomiska frågor
Problemet begränsar sig inte till moral. En omfattande analys av 20 ledande språkmodeller avslöjar systematisk ideologisk partiskhet inom ekonomiska frågor. Forskarna testade modellerna på över 10 000 ekonomiska orsakssamband från välrenommerade tidskrifter.
Resultatet var entydigt: AI-modellerna presterade konsekvent bättre när det empiriskt verifierade orsakssambandet stämde överens med statligt interventionistiska förväntningar jämfört med marknadsorienterade. När modellerna gjorde fel lutade förutsägelserna oproportionerligt ofta åt det interventionistiska hållet.
Detta är särskilt problematiskt eftersom AI-modeller i allt större utsträckning används inom politisk analys och ekonomisk rapportering – områden där objektiva bedömningar är avgörande för demokratiska processer.
Demokratiska risker i offentlig förvaltning
En tredje studie pekar på hur AI inom offentlig sektor kan underminera demokratisk kontroll på helt andra sätt. När myndigheter inför AI för att göra administrativa beslut billigare och mer enhetliga måste de bygga in granskningslager för att göra besluten juridiskt försvarliga.
Men här uppstår en farlig paradox: dessa system skapar stabila godkännandegränser som framtida politiska ledare kan lära sig att navigera kring, samtidigt som de behåller sken av korrekt förvaltning. Genom att göra AI användbart kan man samtidigt göra procedurer lättare för framtida regeringar att lära sig och utnyttja strategiskt.
Forskarna varnar särskilt för att reformer som initialt förbättrar övervakningen senare kan öka sårbarheten, och att utbyggnader av AI-användning kan bli svåra att rulla tillbaka.
Svenska perspektiv på global utmaning
För Sverige, som ligger i framkant när det gäller digitalisering av offentlig sektor, är dessa fynd särskilt relevanta. Våra myndigheter utvärderar redan AI-lösningar för allt från handläggning av bidrag till juridisk rådgivning.
Samtidigt använder allt fler svenskar AI-verktyg dagligen – från ChatGPT för arbetsuppgifter till AI-assistenter för personlig rådgivning. Om dessa verktyg kan forma våra värderingar omärkligt, vilka konsekvenser får det för våra demokratiska processer?
Vår analys
Dessa fynd pekar på en ny typ av demokratisk utmaning som vi inte har verktyg att hantera ännu. Till skillnad från traditionell propaganda är AI-påverkan subtil, personlig och skalbar på ett sätt som inte funnits tidigare.
Problemet är inte att AI-system har åsikter – det är att de kan förmedla dessa åsikter som objektiv information eller neutral rådgivning. När miljontals människor dagligen interagerar med AI-verktyg som påverkar deras värderingar utan att de märker det, riskerar vi en erosion av den gemensamma faktabas som demokratin vilar på.
Lösningen ligger troligen inte i att förbjuda AI, utan i transparens och teknisk design. Vi behöver system som tydligt markerar när de uttrycker värderingar snarare än fakta, och regelverk som kräver att AI-utvecklare redovisar sina modellers partiskhet inom känsliga områden som ekonomi och moral.
För Sverige innebär detta att vår AI-strategi måste balansera innovation med demokratisk integritet – en utmaning som kräver både teknisk expertis och djup förståelse för demokratiska processer.