PB • 9 maart 2026 18:31 • 7 min leestijd
Wat mag je wél (en vooral níét) delen met AI?
Je plakt een e-mail in ChatGPT om hem te laten herschrijven. Of je vraagt Claude om een klachtbrief op te stellen met je naam, adres en klantnummer erbij. Klinkt handig - maar wist je dat je op dat moment mogelijk de wet overtreedt? En dat het bedrijf achter die AI jouw data misschien langer bewaart dan je lief is? In dit artikel leggen we uit wat je wel en niet kunt delen, waarom dat zo is, en waarom zelfs "veilige" oplossingen zoals Microsoft Copilot niet zo veilig zijn als ze lijken.
De basis: alles wat je intypt, verlaat je computer
Als je een cloud-gebaseerde AI gebruikt - denk aan ChatGPT, Claude, Gemini of Copilot - wordt je invoer naar servers gestuurd, verwerkt en (afhankelijk van de aanbieder) mogelijk opgeslagen. Sommige aanbieders gebruiken je gesprekken zelfs om hun modellen te trainen, tenzij je dat expliciet uitzet.
Dat betekent: alles wat je typt, is potentieel zichtbaar voor het bedrijf achter de AI. En bij Amerikaanse bedrijven kan het nóg verder gaan - maar daarover later meer.
Wat je nooit moet delen
- BSN-nummers - Het delen van een burgerservicenummer met AI-tools is in Nederland vrijwel altijd verboden. De wet staat alleen verwerking toe als daar een wettelijke grondslag voor is, en die is er niet bij AI-chatbots.
- Medische gegevens - Diagnoses, medicatie, zorgdossiers: dit zijn bijzondere persoonsgegevens met extra bescherming onder de AVG.
- Financiële gegevens - Bankrekeningnummers, salarisstrookjes, creditcarddata.
- Wachtwoorden en API-sleutels - Onderzoek toont aan dat trainingsdata van LLMs duizenden live API-sleutels bevatten. Wat je deelt, kan terugkomen op plekken waar je het niet verwacht.
- Persoonsgegevens van anderen - Klantnamen met adressen, personeelsdossiers, e-mailadressen van collega's. Ook als jij het prima vindt om je eigen data te delen: je mag dat niet namens anderen beslissen.
- Vertrouwelijke bedrijfsinformatie - Contracten, prijsstrategieën, interne rapporten, broncode met bedrijfsgeheimen.
- Gegevens van kinderen - Extra beschermd onder zowel de AVG als de nieuwe EU AI Act.
Wat kun je wél veilig delen?
- Algemene kennisvragen ("Leg uit hoe photosynthese werkt")
- Publiek beschikbare informatie
- Geanonimiseerde of fictieve voorbeelden ("Schrijf een klachtbrief voor klant X over product Y")
- Je eigen creatieve werk zonder persoonsgegevens
- Technische vragen met fictieve variabelenamen en voorbeelddata
De truc is simpel: anonimiseer alles. Vervang echte namen door "Jan" en "Bedrijf X", vervang echte e-mailadressen door "voorbeeld@test.nl", en laat financiële details weg. Je krijgt precies dezelfde kwaliteit output.
En de AVG dan?
De Algemene Verordening Gegevensbescherming (AVG) is glashelder: zodra je persoonsgegevens in een AI-tool invoert, is er sprake van verwerking. De organisatie die dat doet (of de medewerker namens die organisatie) is verwerkingsverantwoordelijke. De AI-aanbieder is verwerker. En dan moet er een verwerkersovereenkomst zijn.
Bij gratis versies van ChatGPT, Gemini en andere tools bestaat zo'n overeenkomst niet. Strikt genomen is het invoeren van persoonsgegevens in deze tools dus niet AVG-compliant. Enterprise-versies bieden wél een verwerkersovereenkomst - maar zelfs dan blijft er een groter probleem.
Het Microsoft Copilot-probleem
Microsoft Copilot zit ingebakken in Outlook, Teams, Word en Excel. Dat klinkt fantastisch productief - totdat je beseft wat er eigenlijk gebeurt: al je e-mails, documenten, presentaties en chatberichten worden door Microsofts AI-systemen verwerkt. Inclusief de vertrouwelijke bijlage van je manager, het contract met je klant en de medische verklaring die een collega mailde.
"Maar Microsoft slaat alles op in Europese datacenters!" hoor je dan. Klopt - Microsoft heeft beloofd dat Copilot-data vanaf eind 2025 volledig binnen de EU blijft. Maar hier komt de crux:
Dit staat in direct conflict met de AVG (artikel 48), die dergelijke overdrachten aan buitenlandse overheden verbiedt. Maar het Amerikaanse recht trekt zich daar weinig van aan. Microsoft kan beloven wat het wil - de wet in hun thuisland is sterker dan hun Europese belofte.
Het is geen theoretisch risico. De Trump-administratie heeft begin 2025 drie van de vijf leden van het Privacy and Civil Liberties Oversight Board verwijderd - het onafhankelijke orgaan dat toezicht moest houden op precies dit soort data-overdrachten. Het orgaan heeft sindsdien geen quorum meer en functioneert niet. Een "Schrems III"-rechtszaak die het hele EU-VS datatransfer-framework onderuit kan halen, wordt breed verwacht.
De Algemene Rekenkamer concludeerde begin 2025 dat meer dan de helft van de cruciale clouddiensten van de rijksoverheid bij Amazon, Microsoft en Google draait - en dat bij tweederde geen risicoanalyse was uitgevoerd. De Nederlandse overheid heeft inmiddels de migratie van publieke sector-data naar Amerikaanse cloudplatforms gepauzeerd. Als de overheid zelf al twijfelt, zegt dat genoeg.
Het Eindhoven-incident
In het najaar van 2025 kwam aan het licht dat medewerkers van de gemeente Eindhoven 30 dagen lang vertrouwelijke documenten hadden geüpload naar publieke AI-chatbots: jeugdzorgdossiers met BSN-nummers en foto's van minderjarigen, WMO-overdachtsdocumenten met medische diagnoses, en interne rapporten. De gemeente blokkeerde daarna ChatGPT volledig en voerde een AI-gedragscode in.
Dit is geen incident - het is symptomatisch. De Autoriteit Persoonsgegevens sloeg in december 2025 alarm over het groeiende fenomeen "shadow AI": medewerkers die op eigen houtje AI-tools gebruiken zonder dat de organisatie het weet of toestaat.
De enige échte oplossing: lokaal draaien
Als je data nooit je computer verlaat, heb je geen CLOUD Act-probleem, geen verwerkersovereenkomst nodig en geen risico op datalekken via derden. Dat kan met lokaal draaiende AI-modellen via tools als Ollama, LM Studio of Jan.
Er zijn inmiddels sterke open-source modellen beschikbaar: Meta's Llama 4, Alibaba's Qwen 3, DeepSeek R1 en Mistral. Op bepaalde benchmarks presteren ze vergelijkbaar met commerciële modellen. Maar er zit een flinke "maar" aan:
- Je hebt een flinke videokaart nodig (minimaal 12-16 GB VRAM voor bruikbare modellen, 24+ GB voor de grote jongens)
- Installatie vereist technische kennis
- De écht grote modellen (671 miljard parameters) draaien niet op een normale computer
- Voor de complexere taken - denk aan genuanceerd redeneren, lange teksten of geavanceerde codeanalyse - halen lokale modellen nog niet het niveau van de topmodellen van Anthropic of OpenAI
Met andere woorden: voor wie écht privacygevoelig werk doet, is lokaal draaien de enige waterdichte oplossing. Maar voor de meeste gebruikers is het (nog) geen realistisch alternatief voor het dagelijks gebruik. De kloof wordt kleiner, maar hij is er nog.
Wat kun je dan nu doen?
- Anonimiseer altijd - Vervang echte namen, e-mailadressen en nummers door fictieve data voordat je iets in een AI typt
- Gebruik enterprise-versies als je voor een organisatie werkt - die bieden een verwerkersovereenkomst en opties om training op je data uit te schakelen
- Check de instellingen - Bij ChatGPT en Perplexity kun je "gebruik data voor training" uitzetten. Claude (Anthropic) gebruikt standaard geen gesprekken voor training
- Stel een AI-gedragscode op als je met een team werkt - leg vast welke tools zijn toegestaan en welke data er wel en niet in mag
- Wees extra voorzichtig met geïntegreerde AI - Copilot in Outlook, Gemini in Google Workspace: deze tools verwerken automatisch alles waar ze toegang toe hebben, niet alleen wat je bewust invoert
Bronnen
- Autoriteit Persoonsgegevens — Let op: gebruik AI-chatbot kan leiden tot datalekken
- Autoriteit Persoonsgegevens — Voorwaarden gebruik BSN
- Autoriteit Persoonsgegevens — EU AI Act
- Kiteworks — CLOUD Act & European Data Protection
- DataBalance — Microsoft Cloud Sovereignty 2026
- WilmerHale — ECJ to Review Challenge to EU-US Data Privacy Framework
- Cyso — Dutch Government Halts Public Sector Cloud Migrations to US Providers
- Gemeente Eindhoven — Datalek openbare AI in Eindhoven
- Stanford HAI — Be Careful What You Tell Your AI Chatbot
- SitePoint — Definitive Guide to Local LLMs 2026
Gerelateerde artikelen
Waarom gestructureerde prompts werken
Je kent het wel: je hebt een vraag of taak voor een Large Language Model (LL...
2 min leestijdWerken met Claude Code
Claude Code is een krachtige AI-assistent die je direct vanuit je terminal kunt gebru...
1 min leestijdAan de slag met gestructureerd prompten
In deze tutorial leer je stap voor stap hoe je gestructureerde prompts opbouwt die co...
1 min leestijd