Site beheer • 21 maart 2026 21:52 • 4 min leestijd

Chain of Thought: stap voor stap redeneren

Soms moet een AI-model niet alleen een antwoord geven, maar ook nadenken over de stappen om tot dat antwoord te komen. Dat is precies wat Chain of Thought prompting doet: je vraagt het model om stap voor stap te redeneren. Dit levert betere resultaten op bij logische problemen, wiskundige berekeningen en het debuggen van code. Maar let op: deze techniek is niet altijd de juiste keuze.

Wat is Chain of Thought?

Chain of Thought (CoT) is een prompttechniek waarbij je het AI-model vraagt om zijn denkproces expliciet te laten zien voordat het een conclusie trekt. In plaats van direct een antwoord te geven, doorloopt het model zichtbaar de logische stappen.

Vergelijk het met hardop denken: als iemand jou een wiskundevraag stelt, kom je tot een beter antwoord als je eerst je tussenstappen opschrijft dan wanneer je meteen het eindantwoord probeert te raden.

Hoe werkt het?

De eenvoudigste manier om Chain of Thought te activeren is door een zin als "Denk stap voor stap" of "Laat je redenering zien" toe te voegen aan je prompt. Maar voor betere resultaten kun je het denkproces structureren met thinking-tags:

Beantwoord de volgende vraag. Denk eerst stap voor stap
na in <thinking>-tags voordat je je antwoord geeft.

<thinking>
[Hier komt je redenering: analyseer het probleem,
overweeg opties, en trek conclusies stap voor stap]
</thinking>

Antwoord: [je definitieve antwoord]

Vraag: Een winkel geeft 20% korting op een product van
€85. Daarna komt er 21% BTW bij. Wat is de eindprijs?

Verwachte redenering:

Stap 1: Oorspronkelijke prijs = €85

Stap 2: 20% korting = €85 × 0,20 = €17

Stap 3: Prijs na korting = €85 - €17 = €68

Stap 4: 21% BTW over €68 = €68 × 0,21 = €14,28

Stap 5: Eindprijs = €68 + €14,28 = €82,28

Wanneer gebruik je Chain of Thought?

Chain of Thought is ideaal voor taken waarbij het denkproces belangrijk is:

  • Wiskundige berekeningen: Meerdere stappen, percentages, conversies.
  • Logische puzzels: Problemen waarbij je informatie moet combineren om tot een conclusie te komen.
  • Code debuggen: Het model de fout laten opsporen door stap voor stap door de code te lopen.
  • Analyse en besluitvorming: Wanneer je wilt zien hoe het model tot een aanbeveling komt.
  • Complexe redenering: Vragen waarbij het antwoord afhangt van meerdere factoren die tegen elkaar afgewogen moeten worden.

Wanneer moet je het NIET gebruiken?

Dit is minstens zo belangrijk: er zijn situaties waarin Chain of Thought prompting actief schadelijk is voor je resultaat.

  • Reasoning-modellen (o3, DeepSeek R1, Qwen3-thinking): Deze modellen hebben Chain of Thought al ingebouwd. Als je hen vraagt om "stap voor stap na te denken", vraag je in feite om dubbel te redeneren. Dit leidt tot langzamere, slechtere en vaak verwarde output. Gebruik CoT alleen bij standaardmodellen.
  • Eenvoudige feitelijke vragen: "Wat is de hoofdstad van Japan?" heeft geen stapsgewijze redenering nodig. CoT voegt hier alleen onnodig lange output toe.
  • Creatief schrijfwerk: Bij het schrijven van verhalen, gedichten of marketingteksten helpt CoT niet en kan het de creativiteit beperken.

Belangrijk:

Gebruik je een reasoning-model zoals OpenAI o3, DeepSeek R1 of Qwen3-thinking? Sla Chain of Thought dan over. Deze modellen denken intern al stap voor stap na. Extra CoT-instructies maken het resultaat juist slechter.

Een praktijkvoorbeeld: code debuggen

Chain of Thought is bijzonder nuttig bij het opsporen van fouten in code:

De volgende Python-functie zou de gemiddelde score moeten
berekenen, maar geeft een fout resultaat. Analyseer de
code stap voor stap in <thinking>-tags en vind de bug.

def gemiddelde(scores):
    totaal = 0
    for score in scores:
        totaal += score
    return totaal / len(scores) - 1

Test: gemiddelde([8, 6, 9, 7]) zou 7.5 moeten geven,
maar geeft 6.5.

Veelgemaakte fouten

  • CoT gebruiken bij reasoning-modellen: Dit is de meest voorkomende fout. Modellen als o3 en R1 hebben al een ingebouwde denkketen. Extra CoT-instructies zorgen voor dubbel werk en slechtere resultaten.
  • CoT gebruiken voor simpele taken: Niet elke vraag heeft stapsgewijze redenering nodig. Gebruik het alleen als het denkproces daadwerkelijk bijdraagt aan een beter antwoord.
  • De thinking-stappen niet structureren: Een losse "denk stap voor stap" instructie is minder effectief dan het aanbieden van een denkstructuur met tags of genummerde stappen.

Zelf aan de slag

Probeer Chain of Thought de volgende keer dat je een berekening, logisch probleem of debugvraag aan een standaard AI-model stelt. Voeg de <thinking>-tags toe aan je prompt en vergelijk het resultaat met een prompt zonder CoT. Je zult merken dat het model minder fouten maakt en je bovendien kunt controleren hoe het tot zijn antwoord is gekomen. Maar onthoud: gebruik je een reasoning-model? Laat CoT dan achterwege.

Gerelateerde artikelen

Lokale AI op een oude PC - met Gemma 4

100% de baas zijn over je eigen data en AI kunnen gebruiken zonder internetverbinding...

4 min leestijd

Few-Shot prompting: leren door voorbeelden

Soms is het makkelijker om te laten zien wat je wilt dan om het uit te legge...

5 min leestijd

Rolbepaling in je prompt

"Je bent een behulpzame assistent." Klinkt bekend? Het is de meest gebruikte...

5 min leestijd