LLM hallucination er et af de mest omtalte fænomener inden for moderne AI – men også et af de mest misforståede. Når en stor sprogmodel (LLM) som ChatGPT, Claude eller Gemini “hallucinerer”, betyder det, at den producerer et svar, der lyder overbevisende, men som i virkeligheden er forkert, opfundet eller uden grundlag i virkelige data.
For virksomheder, der bruger AI i marketing, kundeservice eller rapportering, kan LLM hallucination skabe både praktiske og omdømmemæssige problemer. Derfor er det afgørende at forstå, hvorfor det sker – og hvordan man forebygger det.
Hvad betyder LLM hallucination?
Begrebet “LLM hallucination” dækker over situationer, hvor en AI-model genererer falsk eller misvisende information. Modellen kan fx “opfinde” statistikker, citere kilder, der ikke eksisterer, eller konkludere noget, der ikke logisk følger af de data, den har til rådighed.
Det sker ikke fordi AI’en “lyver” bevidst, men fordi den forsøger at forudsige det mest sandsynlige næste ord i en tekst – baseret på mønstre i de data, den er trænet på. Når der mangler kontekst eller fakta, “gætter” modellen.
Hvorfor opstår LLM hallucination?
Der er flere årsager til, at LLM’er hallucinerer – og de fleste hænger sammen med, hvordan teknologien fungerer.
- Manglende eller ukorrekte træningsdata: Hvis modellen aldrig har set de korrekte fakta, kan den ikke gengive dem præcist.
- Overgeneralisering: Modellen forsøger at udfylde huller ved at gætte ud fra lignende eksempler.
- For høj “temperature”: Jo højere kreativitet der tillades, desto større risiko for, at AI’en digter frem for at gengive fakta.
- Manglende kontekst: Når en prompt ikke indeholder tilstrækkelig baggrund eller detaljer, laver modellen antagelser.
- Ingen reference til eksterne kilder: Uden adgang til realtidsdata eller vidensbaser kan modellen kun trække på forældet viden.
Typiske risici ved LLM hallucination i virksomhedsbrug
For virksomheder kan AI-hallucination have alvorlige konsekvenser.
- Forkert information i marketing eller rapporter: AI kan fremstille falske påstande, som svækker troværdigheden.
- Fejl i kundekommunikation: En chatbot, der giver misvisende oplysninger, kan skade kundetilliden.
- Juridiske risici: Falske data eller kilder kan føre til overtrædelser af GDPR, markedsføringsloven eller ophavsret.
- Omdømmeskade: Når AI-svar offentliggøres uden kontrol, kan virksomheden fremstå uprofessionel eller utroværdig.
Sådan undgår du LLM hallucination
Der findes flere praktiske tiltag, der kan reducere risikoen for hallucination, når du arbejder med AI i virksomheden.
- Brug klare og præcise prompts – undgå åbne eller tvetydige spørgsmål.
- Tjek fakta fra eksterne og verificerbare kilder, før output bruges eksternt.
- Indsæt relevant kontekst eller viden i prompten (“grounding”).
- Sæt temperature lavt (0.1-0.3) for mere faktabaserede svar.
- Brug modeller, der har adgang til realtidsdata eller interne dokumentbaser.
- Implementér menneskelig review og godkendelse, før AI-genereret indhold publiceres.
Oversigt: Årsager og løsninger
| Årsag | Typisk problem | Løsning |
|---|---|---|
| Manglende fakta | AI opfinder svar | Brug dokumenteret viden eller integrér egen database |
| For bred prompt | Vage eller upræcise svar | Brug specifik kontekst og begræns emnet |
| For høj temperature | Overkreative og urealistiske svar | Sæt lav temperature for faktuel tone |
| Ingen efterkontrol | Fejl går videre til brugeren | Indfør menneskelig kvalitetssikring |
| Forældet viden | Uaktuelle oplysninger | Brug modeller med web-adgang eller RAG-løsninger |
Skab kvalitet og gennemsigtighed i AI-processer
Virksomheder, der bruger AI i større skala, bør implementere faste procedurer for kvalitetssikring og gennemsigtighed. Det kan fx være:
- AI-policy: En intern retningslinje for, hvordan og hvornår AI må bruges.
- Review-proces: Et fast trin, hvor menneskelige eksperter tjekker AI-output, før det offentliggøres.
- Prompt-guidelines: Interne skabeloner for gode prompts, så kvaliteten bliver ensartet.
- Brug af RAG (Retrieval-Augmented Generation): Kombinér AI med virksomhedens egne dokumenter for at sikre faktuel grounding.
Når medarbejdere er trænet i både at forstå og udfordre AI-output, øges kvaliteten markant – og risikoen for fejl mindskes.
Konklusion: AI skal være hjælp – ikke risiko
LLM hallucination er ikke et tegn på, at AI “ikke virker” – men på, at den skal bruges klogt og ansvarligt. Med de rette processer, prompts og kontrolmekanismer kan virksomheder udnytte AI’s fulde potentiale uden at gå på kompromis med kvalitet og troværdighed.
Vil du udnytte AI’s potentiale uden at løbe unødvendige risici? Træn dit team i at arbejde sikkert og effektivt med LLM’er – og skab en AI-strategi, der bygger på fakta, tillid og transparens.

