Wat is Hallucinatie?

AI Glossary uitleg en definitie

Hallucinatie

1 min leestijd AI Glossary

Hallucinatie in AI betekent dat het model onwaarheden verzint, vaak zonder dat je het merkt. Hoe herken je het, en waarom is het zo’n hardnekkig probleem?

In de wereld van kunstmatige intelligentie (AI) klinkt het bijna poëtisch: een chatbot die "hallucineert". Helaas zijn de gevolgen vaak minder romantisch. Hallucinatie is het verschijnsel waarbij AI-systemen, zoals ChatGPT of Claude, informatie presenteren die simpelweg niet klopt — verzonnen details, foutieve feiten of complete nonsens, gebracht met het zelfvertrouwen van een doorwinterde professor.

Wat betekent “hallucinatie” precies bij AI?

“Simpel gezegd is een AI-hallucinatie het moment waarop een AI-model iets uit zijn digitale duim zuigt.” Met andere woorden: het systeem maakt geen onderscheid tussen feit en fictie, maar produceert een geloofwaardig klinkend antwoord dat nergens op gebaseerd is. Dit komt doordat AI-modellen, zoals GPT-4, getraind zijn om patronen te herkennen in enorme hoeveelheden tekst, maar zelf geen ‘begrip’ of bewustzijn hebben. Het systeem gokt op basis van waarschijnlijkheid welk woord volgt — niet op waarheid.

Een probleem voor iedereen

Hoewel deze hallucinaties soms onschuldig lijken (“De hoofdstad van België is Rotterdam”), kunnen ze in praktijk tot grote misverstanden leiden. Bedrijven die AI inzetten voor klantenservice, dokters die medische informatie checken, of studenten die een AI als studiehulp gebruiken: allemaal riskeren ze misinformatie wanneer het model hallucinaties produceert. In sommige gevallen kan dit leiden tot dure fouten of zelfs gevaarlijke situaties.

Waarom gebeurt dit?

AI-systemen weten niet wat waar is. Ze kennen geen feiten zoals een mens dat doet, maar voorspellen alleen tekst op basis van hun trainingsdata. Is de data onvolledig, onjuist, of wordt er om iets gevraagd wat niet duidelijk is, dan bedenkt het model vaak zelf iets. Een AI die niet “durft” te zeggen dat ze het antwoord niet weet, kiest dan liever voor een vlotte leugen dan voor stilte.

Wat kan je eraan doen?

De AI-industrie werkt aan technieken om hallucinaties te verminderen, zoals “verificatiemodules” en betere transparantie over bronnen. Maar voorlopig geldt: vertrouw niet blind op wat een AI je vertelt, zeker als het om belangrijke beslissingen gaat. Check altijd zelf de feiten. In België zijn enkele bedrijven en onderzoeksinstellingen volop bezig met oplossingen — maar een waterdichte remedie? Die bestaat nog niet

Tags: