Varför hallucinerar AI?

14 nov 2025

Varför hallucinerar AI?

AI-modeller som ChatGPT kan ibland hitta på fakta. De gissar, även när de saknar kunskap. Men varför hallucinerar AI? I forskningsrapporten Why Language Models Hallucinate (Kalai m.fl., 2025, OpenAI & Georgia Tech) får vi en förklaring till varför det händer – och hur det kan lösas.

Vad betyder det att AI hallucinerar?

När en språkmodell svarar med något som låter korrekt men är fel, kallas det en hallucination. Det betyder inte att AI:n ser syner. Det handlar om att den fyller i luckor när den inte är säker på svaret. Det här är vanligt i dagens AI-system, särskilt i stora språkmodeller som tränas på enorma mängder text.

Varför hallucinerar AI?

Hallucinationer är inte fel i modellen, utan ett resultat av hur AI tränas. Under den första fasen, som kallas förträning, lär sig modellen att gissa nästa ord i en mening – inte att avgöra om något är sant eller falskt.

Tre orsaker till att AI hallucinerar:

  • Sannolikhet går före sanning. AI optimeras för att säga det mest sannolika, inte det mest korrekta.
  • Fakta förekommer sällan. Information som bara finns en gång i träningsdatan är svår för modellen att minnas rätt.
  • Ärlighet försämrar resultatet. En modell som alltid säger “jag vet inte” när den är osäker får sämre resultat enligt dagens testmetoder.

Varför hallucinerar AI även efter träningen?

AI tränas ofta vidare efter förträningen. En vanlig metod är reinforcement learning from human feedback (RLHF), där människor bedömer modellens svar. Målet är att minska antalet fel. Men även här finns ett grundproblem: De flesta tester belönar svar – inte ärlighet.

En modell får ofta högre poäng om den gissar rätt, än om den erkänner att den inte vet. Därför lär sig modeller att chansa, även när osäkerheten är hög. Forskarnas slutsats är tydlig: Vi har skapat en kultur där osäkerhet straffas. AI bluffar, eftersom det ger bättre resultat än att vara ärlig.

Hur kan vi minska AI:s hallucinationer?

För att få språkmodeller att gissa mindre och vara mer ärliga menar rapportens författare att vi bör förändra hur vi tränar och utvärderar dem. Forskarna föreslår tre viktiga åtgärder:

1. Ändra utvärderingssystemen

Slopa binära tester där svaren bedöms som rätt eller fel. Inför graderad bedömning som inte straffar osäkerhet.

2. Inför krav på säkerhet i svar

Be AI:n svara endast om den är till exempel 75 procent säker. Annars ska den säga “jag vet inte”.

3. Belöna kalibrering och transparens

Ge högre betyg till modeller som vet när de inte vet. Det gör AI mer pålitlig i längden.

Hallucinationer i AI handlar alltså inte om slump. Det är en förväntad effekt av hur vi bygger och tränar språkmodeller. Och det tål att sägas om och om igen: AI är fantastiskt i kombination med mänsklig intelligens. Du som använder AI-verktyg behöver vara medveten och uppmärksam när du tar fram information, skriver texter och strukturerar ditt arbete.

Vill du veta mer om hur vi på Stockholms Skrivbyrå arbetar med AI, klarspråk och pålitlig kommunikation? Hör gärna av dig.