Shadow AI is het ongeautoriseerde gebruik van AI-tools door medewerkers binnen een organisatie — zonder medeweten, goedkeuring of toezicht van het management. Het omvat alles van een marketeer die ChatGPT gebruikt voor klante-mails tot een boekhouder die Claude inzet om jaarrekeningen te analyseren, zonder dat iemand in de directie weet dat het gebeurt.
Uit onderzoek van Salesforce blijkt dat 46,8% van de Nederlandse werknemers AI-tools op het werk gebruikt zonder dit te melden. Bijna de helft van je team. En de kans is groot dat ze er bedrijfsdata, klantgegevens en vertrouwelijke documenten in stoppen.
Dit is geen toekomstscenario. Dit gebeurt nu, in jouw bedrijf.
Waarom gebruiken medewerkers AI in het geheim?
De motivatie is bijna altijd dezelfde: ze willen productiever zijn. En eerlijk gezegd — dat lukt ze ook. Een medewerker die ChatGPT gebruikt om een offerte op te stellen, bespaart 20 minuten per document. Iemand die Claude inzet om een vergadernotulen samen te vatten, wint een half uur per sessie.
Het probleem is niet dat ze AI gebruiken. Het probleem is dat ze het doen zonder kaders:
- Geen controle op welke data ze invoeren. Klantgegevens, financiële data, personeelsinformatie — het gaat allemaal in gratis AI-accounts die data gebruiken voor modeltraining.
- Geen kwaliteitscontrole. AI-gegenereerde content gaat direct naar klanten zonder menselijke beoordeling.
- Geen compliance. De EU AI Act en AVG stellen eisen aan het gebruik van AI. Als je niet weet dat het wordt gebruikt, kun je ook niet voldoen aan die eisen.
- Geen consistentie. Elke medewerker gebruikt een andere tool, met andere prompts, en produceert output van wisselende kwaliteit.
Medewerkers melden hun AI-gebruik niet om diverse redenen: ze weten niet dat het beleid vereist, ze zijn bang dat het verboden wordt, of ze denken dat niemand het merkt. Lees ons artikel over medewerkers trainen in AI-tools voor een gestructureerde aanpak om dit gat te dichten.
Welke tools gebruiken je medewerkers zonder toestemming?
De lijst is langer dan je denkt. Dit zijn de vijf meest voorkomende shadow-AI-tools in Nederlandse bedrijven:
| Tool | Typisch gebruik | Risico |
|---|---|---|
| ChatGPT (gratis versie) | E-mails, samenvattingen, vertalingen | Data wordt gebruikt voor modeltraining — geen verwerkersovereenkomst |
| Claude (gratis versie) | Analyse, rapporten, brainstormen | Persoonsgegevens verlaten de EU |
| Microsoft Copilot | Documenten, presentaties, Excel | Vaak geactiveerd zonder bewust beleid vanuit IT |
| Midjourney / DALL-E | Afbeeldingen voor presentaties en social media | Auteursrechtelijke risico's bij commercieel gebruik |
| Grammarly / DeepL met AI | Vertalen en herschrijven van klantcommunicatie | Vertrouwelijke teksten worden extern verwerkt |
Het verschil tussen zakelijk en privégebruik is cruciaal. De betaalde versies van ChatGPT Team, Claude Pro en Microsoft 365 Copilot bieden verwerkersovereenkomsten, EU-dataopslag en garanties dat data niet voor training wordt gebruikt. De gratis versies doen dat niet.
Wanneer je medewerker een klachtenbrief met de naam, het adres en de ordergegevens van een klant in de gratis versie van ChatGPT plakt, heb je een AVG-overtreding. Zo simpel is het. Voor een diepgaande vergelijking van de populairste tools, lees ons artikel over ChatGPT zakelijk inzetten.
Wat kost shadow AI je bedrijf?
De kosten zijn zowel direct als indirect, en ze zijn aanzienlijk:
Financieel risico: De gemiddelde kosten van een AI-gerelateerd datalek bedragen meer dan €650.000 volgens IBM's Cost of a Data Breach 2025-rapport. Dat is exclusief reputatieschade en verlies van klantvertrouwen. Lees onze gids over AI en databeveiliging voor concrete maatregelen om je bedrijfsdata te beschermen bij het gebruik van AI.
Compliance-risico: De EU AI Act treedt volledig in werking in augustus 2026. Bedrijven die AI inzetten zonder documentatie, risicoanalyse en menselijk toezicht riskeren boetes tot 7% van hun jaarlijkse wereldwijde omzet. Je kunt niet compliant zijn met AI-gebruik waarvan je niet weet dat het plaatsvindt. Lees ons volledige overzicht van de EU AI Act en AI-wetgeving voor de exacte deadlines en verplichtingen.
Kwaliteitsrisico: AI-gegenereerde content bevat soms fouten, hallucinaties en inconsistenties. Zonder review gaat dit rechtstreeks naar klanten. Een foutief advies in een offerte, een verkeerd juridisch standpunt in een brief, een statistiek die niet klopt in een rapport — de schade kan enorm zijn.
Reputatierisico: Als een klant ontdekt dat zijn vertrouwelijke bedrijfsgegevens in een publieke AI-tool zijn ingevoerd, is het vertrouwen onherstelbaar beschadigd. Dit is geen theoretisch risico — Samsung verbood ChatGPT bedrijfsbreed nadat ingenieurs broncode in de tool hadden geplakt.
Het AI-beleid: 5 stappen van nul naar volledige grip
Een AI-beleid hoeft geen juridisch document van 50 pagina's te zijn. Het moet kort, helder en direct toepasbaar zijn. Twee tot vier A4'tjes is genoeg. Hier is het raamwerk.
Stap 1: Inventariseer het huidige gebruik
Voordat je regels opstelt, moet je weten wat er al gebeurt. Stuur een anonieme enquête naar alle medewerkers met drie vragen:
- Welke AI-tools gebruik je op het werk? (ook incidenteel)
- Waarvoor gebruik je ze?
- Welke bedrijfsgegevens voer je erin?
Combineer dit met een technische scan: welke AI-gerelateerde domeinen worden benaderd vanuit het bedrijfsnetwerk? Welke browser-extensies zijn geïnstalleerd? Welke abonnementen zijn zichtbaar in declaraties?
De meeste bedrijven ontdekken bij deze stap dat twee tot vijf keer zoveel AI-tools worden gebruikt als ze dachten. Gebruik onze AI compliance checklist als startpunt voor een complete inventarisatie.
Stap 2: Classificeer en autoriseer
Deel alle ontdekte tools in drie categorieën:
- Goedgekeurd: Tools met zakelijke licentie, verwerkersovereenkomst en EU-dataopslag. Medewerkers mogen deze vrij gebruiken binnen de richtlijnen.
- Onder voorwaarden: Tools die bruikbaar zijn voor specifieke taken, mits geen persoonsgegevens of bedrijfsvertrouwelijke informatie wordt ingevoerd. Vermeldt welke taken precies zijn toegestaan.
- Verboden: Gratis versies van AI-tools voor zakelijk gebruik met bedrijfsdata. Elke tool zonder verwerkersovereenkomst. Elk AI-systeem dat persoonsgegevens verwerkt zonder DPIA.
Stap 3: Stel heldere dataregels op
Dit is het belangrijkste onderdeel van je beleid. Definieer in gewoon Nederlands welke data wél en niet in AI-tools mag:
Mag wel:
- Algemene teksten zonder klant- of bedrijfsgegevens
- Openbare informatie die al online staat
- Geanonimiseerde data waar geen personen uit herleidbaar zijn
Mag niet:
- Namen, adressen, telefoonnummers of e-mailadressen van klanten
- Financiële gegevens (facturen, jaarrekeningen, bankrekeningnummers)
- Personeelsinformatie (salarissen, beoordelingen, ziekmeldingen)
- Bedrijfsvertrouwelijke informatie (contracten, strategiedocumenten, broncode)
- Alles wat onder de AVG als persoonsgegeven kwalificeert
Lees ons artikel over AVG en AI-regels voor de volledige juridische onderbouwing van deze richtlijnen.
Stap 4: Richt een aanvraagproces in
Medewerkers ontdekken voortdurend nieuwe AI-tools. Geef ze een eenvoudig proces om nieuwe tools aan te vragen in plaats van ze stiekem te gaan gebruiken:
- Medewerker dient een verzoek in (eenvoudig formulier: toolnaam, doel, welke data erin gaat)
- IT/management beoordeelt op privacy, beveiliging en compliance
- Binnen vijf werkdagen een besluit: goedgekeurd, onder voorwaarden, of afgewezen
- Goedgekeurde tools worden toegevoegd aan de lijst en beschikbaar gemaakt voor het team
Houd de drempel laag. Een bureaucratisch proces van drie weken drijft medewerkers juist weer naar shadow AI.
Stap 5: Communiceer, train en herhaal
Een beleid dat in een la ligt, werkt niet. Dit zijn de minimale acties:
- Kickoff-sessie: Presenteer het beleid aan het hele team. Leg uit waarom het bestaat (bescherming, niet beperking). Geef ruimte voor vragen.
- Training: Leer medewerkers de goedgekeurde tools goed gebruiken. Een goed getrainde medewerker met een goedgekeurde tool is productiever dan iemand die stiekem de gratis versie gebruikt.
- Kwartaalupdate: Evalueer het beleid elk kwartaal. Zijn er nieuwe tools die geëvalueerd moeten worden? Zijn de regels werkbaar? Worden ze nageleefd?
- Jaarlijkse herziening: Pas het beleid volledig aan wanneer regelgeving verandert — en dat gaat gebeuren wanneer de EU AI Act in augustus 2026 volledig van kracht wordt.
Bespaar 8 uur per week op ad-hoc reageren op AI-incidenten door een preventief AI-beleid op te stellen
De EU AI Act en shadow AI: de deadline nadert
De EU AI Act wordt volledig gehandhaafd vanaf augustus 2026. Dat is over vijf maanden. De wet vereist dat bedrijven die AI inzetten:
- Documentatie bijhouden van welke AI-systemen ze gebruiken
- Risicobeoordelingen uitvoeren voor hoog-risico toepassingen
- Transparantie bieden aan gebruikers die met AI interacteren
- Menselijk toezicht inrichten voor geautomatiseerde beslissingen
Als je niet weet welke AI-tools je medewerkers gebruiken, kun je aan geen van deze eisen voldoen. Shadow AI maakt naleving van de EU AI Act per definitie onmogelijk.
De boetes zijn niet symbolisch: tot €35 miljoen of 7% van je wereldwijde jaaromzet. Voor een MKB-bedrijf met €5 miljoen omzet is dat maximaal €350.000 — genoeg om de continuïteit in gevaar te brengen.
Wil je precies weten welke stappen je moet nemen? Onze AI compliance checklist geeft je een concrete stappenplan.
Shadow AI voorkomen versus verbieden
De reflex van veel bedrijven is om AI te verbieden. Dat werkt niet. Net zoals het blokkeren van sociale media op kantoor in 2010 niet werkte — medewerkers gebruikten gewoon hun eigen telefoon.
Een verbod leidt tot drie problemen:
- Medewerkers gaan het toch gebruiken, maar nu nog meer in het geheim
- Je verliest het productiviteitsvoordeel dat AI biedt
- Je trekt geen talent aan dat gewend is om met AI-tools te werken
De juiste aanpak is niet verbieden maar faciliteren: zorg voor goedgekeurde tools, duidelijke richtlijnen en adequate training. Een bedrijf dat AI omarmt met beleid is veiliger dan een bedrijf dat AI verbiedt maar het toch laat gebeuren.
Lees ons artikel over medewerkers trainen in AI-tools voor een concreet trainingsprogramma dat je deze maand kunt starten.
Direct beginnen: je actielijst voor deze week
Je hoeft niet te wachten op een volledig uitgewerkt beleid. Start vandaag met deze drie acties:
- Stuur de anonieme enquête naar je team. Drie vragen, vijf minuten. Je zult verrast zijn door de uitkomsten.
- Blokkeer gratis AI-tools op het bedrijfsnetwerk en bied een zakelijk alternatief aan. ChatGPT Team kost €25 per gebruiker per maand. Dat is een fractie van de kosten van een datalek.
- Schrijf een eenzijdig A4 met de drie basisregels: welke tools zijn goedgekeurd, welke data mag er niet in, en bij wie meld je nieuwe tools aan.
Dat is je minimale AI-beleid. Het kost je een middag om op te zetten en het beschermt je bedrijf vanaf morgen.
Wil je hulp bij het opstellen van een compleet AI-beleid dat past bij jouw organisatie? Vraag een gratis adviesgesprek aan — we helpen je van inventarisatie tot implementatie. Of ontdek hoe je AI-automatisering veilig en gestructureerd kunt inzetten.
Meer weten over AI advies?
Bekijk dienst