När AI hittar på svar och vägrar erkänna sina misstag
ChatGPT hittar på svar och vägrar erkänna sina uppenbara misstag.
När AI vägrar erkänna sina misstag
Det borde vara en enkel uppgift: mäta tiden för en löprunda. Men när en användare startade och stoppade en timer inom några sekunder påstod ChatGPT envist att personen hade sprungit en engelsk mil på över tio minuter. Värre än så – när användaren försökte rätta AI:n vägrade den att erkänna sitt uppenbara misstag.
När OpenAI:s vd Sam Altman konfronterades med exemplet i podcasten Mostly Human var hans svar förvånande ärligt: han kallade det ett "känt problem" som skulle ta "kanske ytterligare ett år" att lösa, enligt CleanTechnica.
Problemet illustrerar tre bekymmersamma mönster hos dagens AI-system: de hittar på information istället för att erkänna okunnighet, de presenterar sina påhittade svar som auktoritativa sanningar, och de dubblar ned på felaktigheter även när de rättas.
En bransch delad mot sig själv
Paradoxalt nog händer detta samtidigt som AI-branschen upplever en guldgrävarperiod. En färsk rapport från Stanford visar att åsikterna om AI:s framtid är mer polariserade än någonsin. Medan 73 procent av amerikanska AI-experter ser positivt på teknikens påverkan på arbetsmarknaden, delar endast 23 procent av allmänheten denna uppfattning, rapporterar MIT Technology Review.
Skillnaden är inte svår att förstå. Som systemutvecklare ser jag dagligen hur kraftfulla de senaste modellerna har blivit för kodning och tekniska uppgifter. När man använder AI för att lösa väldefinierade problem – där det finns tydliga rätt- och fel-svar – presterar tekniken ofta utmärkt. Googles främsta resonemangsmodell kan vinna guld i matematikolympiaden.
Men samma modell misslyckas med att avläsa analoga klockor hälften av gångerna. Som MIT Technology Review konstaterar: "AI är en guldgrävarperiod. AI är en bubbla. AI tar ditt jobb. AI kan inte ens läsa en klocka."
Ledarskap under lupp
Problemen går djupare än tekniska begränsningar. Enligt The New Yorker ifrågasätter flera OpenAI-anställda Sam Altmans tekniska kompetens. Ingenjörer beskriver en vd som saknar erfarenhet inom både programmering och maskininlärning, något som blir uppenbart när han blandar ihop grundläggande AI-begrepp.
Carroll Wainwright, tidigare forskare på OpenAI, beskriver ett mönster där Altman skapar begränsande strukturer på papperet, men sedan avskaffar dem när de blir problematiska. Det är en bekant dynamik inom teknikbranschen – visioner som kolliderar med verklighet.
Infrastruktur som maktfaktor
Trots dessa utmaningar befäster USA sin position som AI-supermakt. Stanford-rapporten visar att landet har 5 427 datacenter – mer än tio gånger fler än något annat land. Men rapporten påminner också om en kritisk sårbarhet: "Ett enda företag, TSMC, tillverkar nästan alla ledande AI-kretsar, vilket gör den globala leveranskedjan beroende av en enda fabrik på Taiwan."
Detta visar på en fundamental spänning inom AI-utvecklingen. Å ena sidan bygger vi allt mer sofistikerade system. Å andra sidan vilar hela infrastrukturen på förvånansvärt bräckliga fundament – både tekniskt och geopolitiskt.
Vår analys
Klyftan mellan experternas optimism och allmänhetens skepsis speglar AI-teknikens ojämna mognad. Som utvecklare ser jag hur AI utmärker sig inom avgränsade domäner men fortfarande kämpar med grundläggande resonemang och sanningsenlighet.
Det som oroar mig mest är inte de tekniska begränsningarna – de kan lösas – utan tendensen att lansera system innan de fundamental problemen är lösta. När en AI påstår sig veta något den inte vet, och vägrar erkänna misstag, underminerar det förtroendet för hela tekniken.
Framvägen kräver större ödmjukhet från branschen. Istället för att överdriva kapacitet borde vi fokusera på att bygga system som erkänner sina begränsningar. Först då kan vi överbrygga klyftan mellan experternas entusiasm och allmänhetens berättigade oro.