AI-modellen kunnen overtuigend klinken terwijl ze compleet verzonnen informatie presenteren als feit. Dit noemen we hallucinaties. Grounding is de verzameling technieken waarmee je het model dwingt om bij de feiten te blijven. In dit artikel leer je hoe je grounding inzet, waarom het nodig is en welke valkuilen je moet kennen.
Wat is grounding?
Grounding betekent letterlijk "verankeren". Je verankert het antwoord van het AI-model in betrouwbare informatie: een meegeleverd document, een dataset, vastgestelde feiten of de expliciete erkenning dat iets onzeker is. Zonder grounding opereert het model in de vrije ruimte en kan het informatie verzinnen die plausibel klinkt maar feitelijk onjuist is.
Grounding is geen optionele luxe. Het is essentieel voor elke taak waarbij feitelijke correctheid ertoe doet: rapporten, analyses, samenvattingen, advies op basis van data en alles wat gepresenteerd wordt als betrouwbaar.
Waarom hallucineert een AI-model?
AI-modellen genereren tekst op basis van patronen, niet op basis van begrip. Ze voorspellen welk woord het meest waarschijnlijk volgt op het vorige. Dit betekent dat een model met grote stelligheid iets kan beweren dat volledig verzonnen is, simpelweg omdat het patroon "klopt".
- Verzonnen bronverwijzingen: Het model citeert een artikel, boek of onderzoek dat niet bestaat. De auteursnamen, titels en jaartallen klinken overtuigend maar zijn verzonnen. Dit is vooral een probleem bij Gemini.
- Feitelijke fouten met zelfvertrouwen: Het model presenteert incorrecte statistieken, data of namen alsof ze vaststaan.
- Logisch klinkende maar onjuiste conclusies: Het model trekt een conclusie die redelijk lijkt maar niet wordt ondersteund door de beschikbare informatie.
Hoe werkt grounding?
Grounding werkt door het model expliciete ankers te geven: regels waaraan het zich moet houden bij het genereren van een antwoord. De krachtigste grounding-technieken zijn:
1. De onzekerheids-instructie
De eenvoudigste en meest effectieve grounding-techniek: geef het model toestemming om "ik weet het niet" te zeggen.
Gebruik alleen informatie waarvan je zeer zeker bent dat
deze klopt. Als je ergens niet zeker van bent, schrijf dan
[onzeker] achter die bewering. Als je het antwoord niet
weet, zeg dat dan eerlijk in plaats van te gokken.
2. Context-gebonden antwoorden
Als je een document of dataset meelevert, dwing het model dan om uitsluitend die bron te gebruiken:
Baseer je antwoord uitsluitend op de onderstaande context.
Gebruik geen externe kennis. Als het antwoord niet in de
context staat, zeg dan: "Dit staat niet in de aangeleverde
informatie."
Context:
[jouw document of data hier]
Vraag: [jouw vraag]
3. Bronverwijzings-protocol
Als je het model om bronnen vraagt, geef dan strikte regels:
Als je verwijst naar bronnen, gebruik dan alleen bronnen
die je met zekerheid kunt verifiëren. Noem de exacte titel,
auteur en publicatiedatum. Als je een bron niet met
zekerheid kunt identificeren, schrijf dan:
"[Bron niet verifieerbaar]" en leg uit wat je wel weet.
De hallucinatie-uitnodiging vermijden
Sommige prompts nodigen het model onbedoeld uit om te hallucuneren. Dit is een veelvoorkomend patroon:
FOUT (nodigt hallucinatie uit):
"Noem 5 wetenschappelijke onderzoeken die aantonen dat..."
BETER (met grounding):
"Zijn er wetenschappelijke onderzoeken over dit onderwerp
die je met zekerheid kunt noemen? Zo ja, noem ze met
exacte titel en auteurs. Zo nee, geef aan dat je geen
specifieke bronnen kunt verifiëren."
Het verschil: de eerste prompt eist vijf bronnen, waardoor het model ze desnoods verzint. De tweede prompt geeft het model de ruimte om eerlijk te zijn.
Een compleet voorbeeld
Analyseer het onderstaande kwartaalrapport en beantwoord
de vragen die volgen.
Regels:
- Baseer je antwoord uitsluitend op het rapport
- Citeer bij elke bewering het relevante deel van het rapport
- Als een vraag niet beantwoord kan worden op basis van
het rapport, zeg dan: "Het rapport bevat hierover geen
informatie."
- Maak geen aannames over data die niet in het rapport staat
- Markeer eventuele eigen interpretaties met [interpretatie]
[kwartaalrapport hier]
Vragen:
1. Wat was de omzetgroei ten opzichte van vorig kwartaal?
2. Welke risico's worden benoemd?
3. Wat is de prognose voor volgend kwartaal?
Wanneer gebruik je grounding?
- Feitelijke analyses: Elke keer dat je het model vraagt om feiten te presenteren of conclusies te trekken uit data.
- Documentsamenvattingen: Wanneer het antwoord gebaseerd moet zijn op een specifiek document, niet op de algemene kennis van het model.
- Advies en aanbevelingen: Als het model advies geeft dat op feiten moet zijn gebaseerd, niet op aannames.
- Alles met bronverwijzingen: Zodra je het model vraagt om bronnen te noemen, is grounding essentieel.
Veelgemaakte fouten
- Het model dwingen om bronnen te noemen: "Noem 5 bronnen" dwingt het model om bronnen te produceren, desnoods verzonnen. Geef altijd de optie om aan te geven dat bronnen niet verifieerbaar zijn.
- Geen grounding bij feitelijke vragen: Als je het model om feiten vraagt zonder grounding-instructie, krijg je antwoorden die feitelijk lijken maar dat niet per se zijn.
- Blindvaren op de output: Zelfs met grounding-instructies moet je het antwoord controleren. Grounding vermindert hallucinaties maar elimineert ze niet volledig.
Zelf aan de slag
Voeg bij je volgende feitelijke vraag aan een AI-model deze zin toe: "Gebruik alleen informatie waarvan je zeer zeker bent. Bij twijfel, schrijf [onzeker]." Je zult merken dat het model eerlijker antwoordt en minder stellig verzonnen informatie presenteert. Begin daar, en bouw van daaruit verder met context-gebonden antwoorden en bronverwijzings-protocollen.