Hallucination
Simpele Uitleg
Een hallucination is wanneer AI iets verzint en het presenteert alsof het 100% waar is. Denk aan een collega die met volle overtuiging een "feit" vertelt dat compleet verzonnen is — maar dan zonder te blozen. ChatGPT, Claude en Gemini doen dit allemaal. Het is het grootste risico van AI op de werkvloer.
Technische Definitie
Een LLM is getraind om te voorspellen welk woord waarschijnlijk volgt op het vorige — niet om te checken of iets waar is. Als het model een patroon herkent (zoals "vraag → antwoord met bron"), vult het dat patroon in met plausibel klinkende informatie. Ook als die informatie niet bestaat. Het model heeft geen concept van "dit weet ik niet". Onderzoek laat zien dat zelfs de beste modellen in 1-5% van de gevallen feiten verzinnen.
Waarom Dit Belangrijk Is
Voor bedrijven is dit het grootste AI-risico. Een bekend voorbeeld: advocaten in de VS gebruikten ChatGPT voor juridisch onderzoek. De AI verzon zes rechtszaken — compleet met namen, data en citaten. Ze dienden het in bij de rechter. Gevolg: sancties en reputatieschade.
Dit soort fouten gebeurt vaker dan je denkt. Een support team dat een chatbot inzet die verkeerde retourvoorwaarden geeft. Een sales team dat een offerte maakt met verzonnen productspecificaties. Eén hallucination kan duizenden euro's kosten.
De oplossing? Je team leren wanneer ze AI-output kunnen vertrouwen en wanneer niet. Dat is precies wat we doen in de AI voor bedrijven training — zodat AI een betrouwbare tool wordt in plaats van een risico.
Hoe Het Werkt
Stel je voor: je vraagt AI om drie wetenschappelijke bronnen over AI-productiviteit. Het geeft je drie papers met auteurs, jaartallen en journal-namen. Klinkt perfect. Maar als je ze opzoekt? Ze bestaan niet.
Dit gebeurt omdat AI werkt als een geavanceerde aanvulzin-machine. Het herkent het patroon "wetenschappelijk artikel" en vult dat in met realistisch klinkende details. Het verschil met een mens: AI twijfelt nooit. Het presenteert verzonnen informatie met exact dezelfde zekerheid als echte feiten.
Wanneer hallucineert AI het meest? Bij obscure onderwerpen (weinig trainingsdata), recente gebeurtenissen (na de kennisdatum), en hele specifieke vragen ("geef me het exacte percentage"). Hoe specifieker je vraagt zonder context mee te geven, hoe groter de kans op verzinsels.
De belangrijkste bescherming is RAG: je geeft de AI je eigen documenten als bron, zodat het antwoorden baseert op echte informatie in plaats van patronen. Wil je leren hoe je dit als team inricht? Bekijk AI als Teamsport.
Use Cases
Juridische documenten controleren
Een juridisch team laat AI contracten samenvatten. Zonder verificatie-stap kan de AI clausules verkeerd interpreteren of details verzinnen. Met een check-workflow — AI maakt een samenvatting, mens verifieert tegen het origineel — bespaar je uren zonder risico.
Klantenservice betrouwbaar maken
Een support team zet een chatbot in die antwoorden haalt uit de eigen kennisbank (RAG) in plaats van te "gokken". Resultaat: onderzoek toont dat RAG hallucinations met 40-70% vermindert.
Content produceren met fact-checking
Een marketing team gebruikt AI voor blogs en social media. De gouden regel: AI schrijft de eerste versie, een mens checkt feiten en cijfers. Zo combineer je snelheid met betrouwbaarheid.
Team-brede AI-richtlijnen opzetten
Het echte risico ontstaat als iedereen individueel AI gebruikt zonder afspraken. Wanneer vertrouw je output? Wanneer check je? Bij AI als Teamsport leer je hoe je als team betrouwbare AI-workflows opzet.
Voorbeelden
Verzonnen bronnen herkennen
Red flags om op te letten:
- Specifieke cijfers zonder link naar de bron
- Auteursnamen die je niet kunt vinden op Google Scholar
- Details die te mooi zijn om waar te zijn
Tip: vraag AI altijd om een URL naar de bron. Kan het dat niet geven? Dan is het waarschijnlijk verzonnen.
Subtiele fouten in samenvattingen
Oplossing: gebruik samenvattingen als startpunt, niet als eindresultaat. Check specifieke cijfers en claims altijd tegen de originele bron. In de ChatGPT, Claude & Gemini Masterclass leer je technieken om dit soort fouten te voorkomen.
Veelgemaakte Fouten
"AI klinkt zeker, dus het klopt"
AI klinkt altijd zeker — ook als het liegt. Het heeft geen concept van twijfel. Een antwoord met specifieke cijfers en bronnen kan 100% verzonnen zijn. Altijd checken bij kritieke informatie.
"Met het nieuwste model zijn hallucinations opgelost"
Nieuwere modellen hallucineren minder, maar het probleem is niet weg. Zelfs de beste modellen verzinnen in 1-5% van de gevallen feiten. Bij 100 vragen zijn dat 1-5 foute antwoorden. Voor juridisch, medisch of financieel advies is dat onacceptabel.
"Ik hoef niet te checken als ik [RAG](/woordenboek/rag) gebruik"
RAG vermindert hallucinations flink, maar elimineert ze niet volledig. Het model kan nog steeds informatie verkeerd interpreteren of combineren. RAG + menselijke verificatie is de veiligste aanpak.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Welk AI-model hallucineert het minst?
Hoe voorkom ik hallucinations in mijn bedrijf?
Zijn hallucinations altijd erg?
Hoe leer ik mijn team veilig omgaan met AI?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?