Pep • 27 april 2026 20:53 • 4 min leestijd

Infl(AI)tie - Waarom AI rap duurder wordt

Eerst gaven bedrijven als OpenAI rekenkracht zowat gratis weg. Dat was leuk om iedereen aan boord te krijgen, gekke plaatjes te laten maken en LinkedIn en andere socialmedia vol te spammen met AI-slop, maar die tijd lijkt nu echt voorbij (de slop helaas niet, maar het goedkope gebruik wel).
De grote namen passen de laatste weken hun prijzen - of voorwaarden - flink aan. Het einde van de onbeperkte abonnementen.

Gebruikers van GitHub Copilot hebben het nieuws vast wel gehoord. Vanaf juni 2026 stopt het onbeperkte abonnement. Je krijgt voortaan een vast aantal AI-credits.
Voorheen kon je voor een tientje per maand eindeloos code laten schrijven.

Tegenwoordig wordt er veel gewerkt met slimme AI-assistenten die zelfstandig taken uitvoeren, dus dat verdienmodel werkt niet meer voor ze. Deze 'agents' slurpen op de achtergrond urenlang tokens op. Dit is simpelweg te duur om aan te bieden voor een vaste prijs want zodra je credits straks op zijn bij Copilot, moet je, net als bij de anderen, bijbetalen.

De meter loopt sneller

Een half jaar geleden betaalde je voor het topmodel GPT-5 nog €1,15 per miljoen input tokens. Voor de output was dat €9,20. Nu is er GPT-5.5. Daar betaal je €4,60 voor de input. De output kost €27,60 per miljoen tokens. Dat is een stijging van 300%. in 6 maanden.

Het plaatje is niet overal hetzelfde. Anthropic hun nieuwste model Opus 4.7 is nominaal goedkoper dan zijn voorganger van een half jaar geleden. Toen koste Opus 4.1 €13,80 voor input en maar liefst €69,00 voor output. Nu betaal je €4,60 voor input en €23,00 voor output. Op papier een daling van 67 procent, maar zo simpel is het niet. Anthropic voerde tegelijk sessielimieten en gebruiksplafonds in op hun betaalde abonnementen. En de nieuwe tokenizer van Opus 4.7 gebruikt tot 35 procent meer tokens per bericht dan zijn voorganger. Voor intensief gebruik betaal je per saldo dus toch meer en zelfs claude code - voor velen de meest nuttige tool - verhuist voor nieuwe gebruikers naar het het duurdere segment van abonnementen.

Google pakt het met Gemini 3.1 Pro ook anders aan. Zij houden de kosten laag, mede doordat ze hun eigen chips gebruiken. Toch zie je ook daar dat het meer kost dan een half jaar geleden: input steeg van €1,15 naar €1,85. Output van €9,20 naar €11,05.

Hier zie je de prijzen op een rij, inclusief de vergelijking met een half jaar geleden:

Model Maker Input okt '25 Input apr '26 Output okt '25 Output apr '26
GPT-5 → GPT-5.5 OpenAI €1,15 €4,60 (+300%) €9,20 €27,60 (+200%)
Opus 4.1 → Opus 4.7 Anthropic €13,80 €4,60 (-67%) €69,00 €23,00 (-67%)
Gemini 2.5 → 3.1 Pro Google €1,15 €1,85 (+60%) €9,20 €11,05 (+20%)

Prijzen per miljoen tokens, omgerekend van USD (koers april 2026: ±€0,92 per dollar).

Waarom kost dat zoveel?

De nieuwe modellen zijn weer veel slimmer. Ze redeneren beter en maken minder fouten. Maar die extra rekenkracht is behoorlijk kostbaar. OpenAI draait in 2026 naar verwachting bijna 13 miljard euro verlies. Het is de vraag hoe lang investeerders dat blijven accepteren.

Er is nog een reden voor die hoge rekeningen. De meeste modellen 'denken' tegenwoordig na voordat ze antwoord geven. Tijdens dat denken gebruikt de AI interne denkstappen. Jij ziet dat denkproces niet altijd, maar je betaalt er wel voor. Die denkstappen tellen namelijk gewoon mee als dure output tokens. Een heel kort antwoord op je scherm kan door het onzichtbare denkwerk toch flink duur uitvallen. Een simpele vraag kan zo toch 1.000 tokens aan denkwerk opleveren voordat er ook maar één letter op je scherm verschijnt.

Slim omgaan met de kosten

Wanneer je een groot gebruiker bent, kun je slim omgaan met die nieuwe prijzen. Hier zijn vier manieren om geld te besparen:

Kies waar mogelijk een lichter model

Gebruik niet overal het duurste model voor. Voor een simpele Nederlandse tekst vragen werkt, mits je wat AI slop maatregelen neemt, met een goedkopere variant prima. Denk aan GPT-4.1 Nano, dat kost maar €0,09 per miljoen tokens. Bewaar de dure opties echt voor het moeilijke werk.

Sla je opdrachten op

Heb je lange instructies die je vaak gebruikt? Maak dan gebruik van 'prompt caching'. Je bewaart je teksten dan in het geheugen van de aanbieder. Dat scheelt al snel 50 tot 90 procent op je inputkosten.

Plan je werk slim

Heeft een taak geen haast? Laat de AI het werk dan 's nachts doen, als de servers rustig zijn. Een beetje als de wasmachine aan als de tarieven gunstig zijn.
Zo'n vertraagde opdracht geeft je vaak stevige korting. Niet alle aanbieders bieden dit aan, maar bij OpenAI en Anthropic is het beschikbaar via hun Batch API.

Draai zelf een model

Als je een beetje technisch onderlegt bent, is het mogelijk om open modellen zoals Gemma 4 of Qwen lokaal te draaien op je eigen hardware. Geen abonnementskosten, geen sessielimieten. Je betaalt alleen voor stroom en hardware. Heb je geen eigen server? Dan kun je hetzelfde doen via een cloud-GPU voor een paar cent per uur.

Gerelateerde artikelen

De AI gekte | april 26 update

Als je het AI-nieuws een beetje volgt, weet je dat de ontwikkelingen snel gaan. Bijna...

3 min leestijd

Mythos de superhacker

Dit stukje is niet zo zeer objectief nieuws, maar bevat wel veel nieuws. Niet helemaa...

7 min leestijd

Kleine update

Prompt Master heeft een update gehad. Helaas heb ik weinig/geen tijd voor grondig ond...

2 min leestijd