Terug naar Woordenboek
beginnerBasis Concepten
5 min leestijd

Hallucination

Simpele Uitleg

Een hallucination is wanneer AI iets verzint en het presenteert alsof het 100% waar is. Denk aan een collega die met volle overtuiging een "feit" vertelt dat compleet verzonnen is — maar dan zonder te blozen. ChatGPT, Claude en Gemini doen dit allemaal. Het is het grootste risico van AI op de werkvloer.

Technische Definitie

Een LLM is getraind om te voorspellen welk woord waarschijnlijk volgt op het vorige — niet om te checken of iets waar is. Als het model een patroon herkent (zoals "vraag → antwoord met bron"), vult het dat patroon in met plausibel klinkende informatie. Ook als die informatie niet bestaat. Het model heeft geen concept van "dit weet ik niet". Onderzoek laat zien dat zelfs de beste modellen in 1-5% van de gevallen feiten verzinnen.

Waarom Dit Belangrijk Is

Voor bedrijven is dit het grootste AI-risico. Een bekend voorbeeld: advocaten in de VS gebruikten ChatGPT voor juridisch onderzoek. De AI verzon zes rechtszaken — compleet met namen, data en citaten. Ze dienden het in bij de rechter. Gevolg: sancties en reputatieschade.

Dit soort fouten gebeurt vaker dan je denkt. Een support team dat een chatbot inzet die verkeerde retourvoorwaarden geeft. Een sales team dat een offerte maakt met verzonnen productspecificaties. Eén hallucination kan duizenden euro's kosten.

De oplossing? Je team leren wanneer ze AI-output kunnen vertrouwen en wanneer niet. Dat is precies wat we doen in de AI voor bedrijven training — zodat AI een betrouwbare tool wordt in plaats van een risico.

Hoe Het Werkt

Stel je voor: je vraagt AI om drie wetenschappelijke bronnen over AI-productiviteit. Het geeft je drie papers met auteurs, jaartallen en journal-namen. Klinkt perfect. Maar als je ze opzoekt? Ze bestaan niet.

Dit gebeurt omdat AI werkt als een geavanceerde aanvulzin-machine. Het herkent het patroon "wetenschappelijk artikel" en vult dat in met realistisch klinkende details. Het verschil met een mens: AI twijfelt nooit. Het presenteert verzonnen informatie met exact dezelfde zekerheid als echte feiten.

Wanneer hallucineert AI het meest? Bij obscure onderwerpen (weinig trainingsdata), recente gebeurtenissen (na de kennisdatum), en hele specifieke vragen ("geef me het exacte percentage"). Hoe specifieker je vraagt zonder context mee te geven, hoe groter de kans op verzinsels.

De belangrijkste bescherming is RAG: je geeft de AI je eigen documenten als bron, zodat het antwoorden baseert op echte informatie in plaats van patronen. Wil je leren hoe je dit als team inricht? Bekijk AI als Teamsport.

Use Cases

Juridische documenten controleren

Een juridisch team laat AI contracten samenvatten. Zonder verificatie-stap kan de AI clausules verkeerd interpreteren of details verzinnen. Met een check-workflow — AI maakt een samenvatting, mens verifieert tegen het origineel — bespaar je uren zonder risico.

Klantenservice betrouwbaar maken

Een support team zet een chatbot in die antwoorden haalt uit de eigen kennisbank (RAG) in plaats van te "gokken". Resultaat: onderzoek toont dat RAG hallucinations met 40-70% vermindert.

Content produceren met fact-checking

Een marketing team gebruikt AI voor blogs en social media. De gouden regel: AI schrijft de eerste versie, een mens checkt feiten en cijfers. Zo combineer je snelheid met betrouwbaarheid.

Team-brede AI-richtlijnen opzetten

Het echte risico ontstaat als iedereen individueel AI gebruikt zonder afspraken. Wanneer vertrouw je output? Wanneer check je? Bij AI als Teamsport leer je hoe je als team betrouwbare AI-workflows opzet.

Voorbeelden

Verzonnen bronnen herkennen

Je vraagt AI: "Geef me studies over AI-productiviteit." Het antwoord bevat een paper van "Jensen & Williams (2023)" in het "Journal of Business Technology". Klinkt perfect — maar het bestaat niet.

Red flags om op te letten:
- Specifieke cijfers zonder link naar de bron
- Auteursnamen die je niet kunt vinden op Google Scholar
- Details die te mooi zijn om waar te zijn

Tip: vraag AI altijd om een URL naar de bron. Kan het dat niet geven? Dan is het waarschijnlijk verzonnen.

Subtiele fouten in samenvattingen

Je laat een artikel samenvatten. De samenvatting klopt grotendeels, maar AI verandert "30% kostenbesparing" in "50% kostenbesparing". Dit is het gevaarlijkste type hallucination: het meeste klopt, dus je checkt het niet.

Oplossing: gebruik samenvattingen als startpunt, niet als eindresultaat. Check specifieke cijfers en claims altijd tegen de originele bron. In de ChatGPT, Claude & Gemini Masterclass leer je technieken om dit soort fouten te voorkomen.

Veelgemaakte Fouten

"AI klinkt zeker, dus het klopt"

AI klinkt altijd zeker — ook als het liegt. Het heeft geen concept van twijfel. Een antwoord met specifieke cijfers en bronnen kan 100% verzonnen zijn. Altijd checken bij kritieke informatie.

"Met het nieuwste model zijn hallucinations opgelost"

Nieuwere modellen hallucineren minder, maar het probleem is niet weg. Zelfs de beste modellen verzinnen in 1-5% van de gevallen feiten. Bij 100 vragen zijn dat 1-5 foute antwoorden. Voor juridisch, medisch of financieel advies is dat onacceptabel.

"Ik hoef niet te checken als ik [RAG](/woordenboek/rag) gebruik"

RAG vermindert hallucinations flink, maar elimineert ze niet volledig. Het model kan nog steeds informatie verkeerd interpreteren of combineren. RAG + menselijke verificatie is de veiligste aanpak.

Tools Die Dit Gebruiken

ChatGPTClaudeGeminiGPT-5Perplexity

Veelgestelde Vragen

Welk AI-model hallucineert het minst?
Claude en GPT-4o scoren het beste op factual accuracy, met een hallucination rate van 1-3%. Gemini zit rond 3-5%. Maar geen enkel model is 100% betrouwbaar. Voor kritieke toepassingen geldt altijd: AI maakt de eerste versie, een mens verifieert.
Hoe voorkom ik hallucinations in mijn bedrijf?
Drie praktische stappen: 1) Gebruik RAG — laat AI antwoorden baseren op je eigen documenten in plaats van zijn "geheugen". 2) Zet de temperature laag (0-0.2) voor feitelijke taken. 3) Bouw een verificatie-stap in je workflow. AI levert de draft, een mens checkt het. In de AI voor bedrijven training leer je hoe je dit opzet.
Zijn hallucinations altijd erg?
Nee. Bij brainstormen, creatief schrijven of ideeën genereren maakt het niet uit als AI iets verzint — dat is juist nuttig. Het wordt gevaarlijk bij juridische info, medisch advies, financiële data, productspecificaties en alles waar mensen beslissingen op baseren.
Hoe leer ik mijn team veilig omgaan met AI?
Het begint met bewustzijn: weten wat hallucinations zijn en wanneer ze gevaarlijk zijn. Daarna: afspraken maken over wanneer je AI-output checkt en wanneer niet. In de ChatGPT, Claude & Gemini Masterclass behandelen we dit uitgebreid, inclusief hands-on oefeningen met echte hallucination-scenario's.

Wil je deze term in de praktijk leren toepassen?