Hallucineren is Woord van het Jaar 2025. Zo houd je AI bij de feiten

Van Dale heeft ‘hallucineren’ als werkwoord uitgeroepen tot het Woord van het Jaar 2025 voor Nederland en België. Ik ben daar blij mee. Niet omdat ik onjuiste informatie wil, maar omdat Van Dale hiermee de vinger op de zere plek legt. Het woord heeft er dankzij generatieve AI een specifieke betekenis bij gekregen. Het gaat dan om het verschijnsel waarbij een AI-model antwoorden verzint die niet op feiten of betrouwbare data zijn gebaseerd.

Kan je AI vertrouwen?

Dit bevestigt precies de twijfel die ik dagelijks hoor bij ondernemers: “Kan ik die teksten wel vertrouwen? Straks plaats ik iets op mijn site dat nergens op slaat.” Die angst is terecht. Maar de conclusie dat je het dan maar niet moet gebruiken, klopt niet.

Wat is hallucineren?

Dat AI soms dingen verzint, is geen foutje in de software. Zo werken taalmodellen. Ze voorspellen het statistisch meest waarschijnlijke volgende woord. Ze zijn niet ontworpen op waarheid, maar op geloofwaardigheid. Als je dit mechanisme snapt, hoef je er niet bang voor te zijn. Dan kun je het beheersen.

Je AI is een ‘pleaser’, geen expert

Laten we één ding rechtzetten. ChatGPT, Claude of Gemini hebben geen besef van goed of fout in de menselijke zin.

Als jij een vraag stelt waarop het model het antwoord niet goed kan afleiden uit betrouwbare input, gaat het ontbrekende informatie opvullen. Het model is getraind om behulpzaam te zijn. En wat doet een onzekere assistent die jou tevreden wil houden? Die gokt. Het genereert een antwoord dat klinkt als de waarheid, om de stilte op te vullen. Dat is hallucineren. Het is een geloofwaardig klinkend verzinsel.

Zo verklein je de kans op hallucineren

Hallucineren AI verminderen

1. Werk met bronnen

Vraag nooit aan een AI om feitelijke bedrijfsinformatie uit zijn “hoofd” te halen, dus uit trainingsdata die je niet kunt controleren.

De oplossing is werken met bronmateriaal, vaak ook grounding genoemd. Jij levert de bron. Je uploadt een PDF met je voorwaarden, een Excel met verkoopcijfers of je plakt een tekst. Vervolgens zeg je:

Gebruik alleen dit document als bron voor je antwoord.” of “Gebruik alleen deze infromatie als bron voor je antwoord.

Daarmee stuur je het model weg van associëren en richting brongebonden antwoorden. Dit verkleint de kans op hallucineren aanzienlijk.

2. Bouw een nooduitgang in je prompt

Zelfs met een brondocument kan een AI doordraven als het antwoord er net niet in staat. Het wil je immers helpen. Geef het model daarom expliciet toestemming om geen antwoord te geven. Voeg deze regel standaard toe aan je prompts als feiten ertoe doen:

Beantwoord deze vraag alleen op basis van de bijgevoegde tekst. Staat het antwoord er niet in? Verzin niets, maar zeg: ‘Ik weet het niet’.

Waarom werkt dit? Omdat je de druk weghaalt. In plaats van te moeten kiezen tussen stilvallen of invullen, geef je een derde optie. Eerlijk aangeven dat de informatie ontbreekt.

3. Vraag om bewijs, niet alleen om antwoorden

Als je alleen om een conclusie vraagt, kan het model de onderbouwing erbij verzinnen. Vraag daarom om controleerbare tussenstappen. Laat het model expliciet verwijzen naar de bron:

Geef bij elke claim aan in welke alinea van de brontekst ik dit kan terugvinden. Citeer de relevante zin.

En als de AI bronnen met links opgeeft in het antwoord, bekijk die bronnen dan ook.

Let op. Blind vertrouwen is nog steeds geen goed idee, want een AI kan ook citaten verzinnen. Maar je maakt het controleren voor jou wel veel makkelijker. Jij doet de eindcontrole.

4. Fact-check met een tweede model

Twijfel je alsnog? Laat een tweede AI-model kritisch meekijken als advocaat van de duivel. Heb je je blog laten schrijven door ChatGPT? Laat dan ook Claude, Gemini of Perplexity naar de tekst kijken.  Geef het tweede model de oorspronkelijke bron en je nieuwe tekst. Het liefst plak je de relevante passages uit de bron erbij, omdat niet elk model links kan openen. Gebruik bijvoorbeeld deze prompt:

Ik heb deze blog geschreven op basis van de onderstaande bron. Factcheck mijn tekst streng. Kloppen alle feiten, data en citaten met de bron? Benoem elke onvolledigheid en elke bewering die niet uit de bron volgt.

De kans dat je een fout mist wordt zo kleiner. Het voorkomt hallucineren niet, maar geeft je wel een praktische extra controlemogelijkheid.

Wantrouwen is goed, controle is beter

Het Woord van het Jaar 2025 is een waarschuwing, geen stopbord. Laat je niet gek maken door de term hallucineren. Zie AI als een zeer slimme, maar soms wat dromerige collega, of een enthousiaste stagiair. Je laat ze het werk doen, je geeft duidelijke kaders, maar jij doet altijd de eindcontrole.

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *