AI in recruitment is het gebruik van kunstmatige intelligentie bij het werven, selecteren en beoordelen van kandidaten — van automatische CV-screening en chatbot-interviews tot assessmenttools en voorspellende modellen voor kandidaat-succes. De EU AI Act classificeert deze toepassingen als hoog-risico, wat betekent dat Nederlandse werkgevers aan strenge eisen moeten voldoen voordat ze AI inzetten in hun wervingsproces.
Dat is niet zonder reden. In 2024 publiceerde het College voor de Rechten van de Mens een rapport waaruit bleek dat 40% van de geteste AI-recruitment-tools structureel nadelig was voor vrouwen, oudere werknemers of kandidaten met een migratieachtergrond. Amazon schrapte in 2018 al een intern AI-wervingssysteem nadat bleek dat het vrouwen systematisch lager scoorde. En in New York is het sinds 2023 wettelijk verplicht om AI-recruitment-tools jaarlijks op bias te laten auditen.
Dit artikel legt uit welke regels er gelden, welke risico's je loopt en hoe je AI verantwoord inzet in je wervingsproces.
Waarom classificeert de EU AI Act recruitment als hoog-risico?
De EU AI Act onderscheidt vier risiconiveaus voor AI-systemen. Recruitment valt in de categorie hoog-risico (Annex III, punt 4) omdat AI-beslissingen in werving directe impact hebben op de levens en carrières van individuen.
Specifiek worden deze toepassingen als hoog-risico aangemerkt:
- CV-screening: Automatisch filteren of ranken van sollicitanten
- Chatbot-interviews: AI-systemen die kandidaten interviewen en beoordelen
- Assessment-tools: AI-gestuurde tests die geschiktheid, persoonlijkheid of competenties meten
- Voorspellende modellen: AI die voorspelt of een kandidaat succesvol zal zijn in de functie
- Geautomatiseerde voorselectie: Elke AI die bepaalt welke kandidaten doorgaan naar de volgende ronde
Wat dit betekent voor werkgevers:
| Verplichting | Wat je moet doen | Deadline |
|---|---|---|
| Conformiteitsbeoordeling | Laat het AI-systeem beoordelen op veiligheid en non-discriminatie | Voor ingebruikname |
| Technische documentatie | Documenteer hoe het systeem werkt, op welke data het is getraind en hoe beslissingen tot stand komen | Doorlopend |
| Menselijk toezicht | Zorg dat een mens elke door AI ondersteunde beslissing kan overrulen | Doorlopend |
| Bias-monitoring | Test het systeem periodiek op discriminatie | Minimaal jaarlijks |
| Transparantie | Informeer kandidaten dat AI wordt gebruikt in het selectieproces | Bij elk gebruik |
| DPIA | Voer een Data Protection Impact Assessment uit | Voor ingebruikname |
| Registratie | Registreer het hoog-risico AI-systeem in de EU-database | Voor ingebruikname |
Lees ons uitgebreide overzicht van de EU AI Act en AI-wetgeving in Nederland voor de volledige juridische context.
Welke discriminatierisico's brengt AI in werving met zich mee?
AI-discriminatie in recruitment is geen hypothetisch scenario. Het gebeurt nu, structureel, en vaak onzichtbaar.
Hoe ontstaat bias in recruitment-AI?
AI-modellen leren patronen uit historische data. Als een bedrijf in de afgelopen tien jaar voornamelijk mannen heeft aangenomen voor technische functies, leert het model dat mannelijke kandidaten "beter passen." Niet omdat dat waar is — maar omdat de data dat patroon laat zien.
De meest voorkomende vormen van bias:
- Genderbias: Vrouwen worden lager gescoord voor functies waar historisch meer mannen werken
- Leeftijdsbias: Oudere kandidaten worden benadeeld omdat het model "dynamisch" associeert met lagere leeftijd
- Etnische bias: Namen, postcodes of taalgebruik worden onbedoeld meegewogen
- Socio-economische bias: Kandidaten van bepaalde hogescholen of met bepaalde hobby's worden bevoordeeld
- Disability-bias: CV's met hiaten (door ziekte of handicap) worden lager gerankt
Concrete voorbeelden
Amazon (2018): Het interne AI-wervingssysteem penaliseerde cv's die het woord "women's" bevatten (zoals "women's chess club captain"). Het systeem was getraind op tien jaar aannamebeslissingen, die overwegend mannelijk waren.
HireVue (2021): De FTC onderzocht het bedrijf omdat hun video-interviewtool gezichtsherkenning gebruikte die systematisch nadelig was voor mensen met een donkerdere huidskleur. HireVue verwijderde de gezichtsherkenningsfunctie.
iTutorGroup (2023): De EEOC bereikte een schikking van $365.000 nadat het bedrijf een AI-systeem gebruikte dat automatisch sollicitanten boven de 55 afwees.
De financiële en juridische risico's van AI-discriminatie in werving zijn aanzienlijk. Meer over aansprakelijkheid en bescherming lees je in ons artikel over AI-risico's en aansprakelijkheid.
Welke Nederlandse wetgeving is relevant?
Naast de EU AI Act en de AVG gelden in Nederland specifieke arbeidsrechtelijke regels:
- Artikel 1 Grondwet: Verbod op discriminatie
- Wet gelijke behandeling (WGB): Verbiedt onderscheid op basis van godsdienst, levensovertuiging, politieke gezindheid, ras, geslacht, nationaliteit, seksuele geaardheid en burgerlijke staat
- Wet gelijke behandeling op grond van leeftijd bij arbeid (WGBLA): Specifiek verbod op leeftijdsdiscriminatie
- Wet gelijke behandeling op grond van handicap of chronische ziekte (WGBH/CZ): Bescherming tegen discriminatie op grond van handicap
Het College voor de Rechten van de Mens oordeelt over discriminatieklachten en kan ook AI-gedreven discriminatie beoordelen. Een werkgever die een discriminerend AI-systeem inzet, kan aansprakelijk worden gesteld — ook als de werkgever niet wist dat het systeem discrimineerde.
Meer weten over AI advies?
Bekijk dienstHoe zet je AI verantwoord in bij werving?
1. Doe een DPIA voordat je begint
Een Data Protection Impact Assessment is verplicht voor hoog-risico AI-systemen. Documenteer:
- Welke persoonsgegevens worden verwerkt
- Welke beslissingen worden (mede) door AI genomen
- Welke risico's er zijn voor kandidaten
- Welke maatregelen je neemt om die risico's te beperken
2. Test op bias voordat je lanceert
Gebruik gestructureerde bias-audits:
- Test met gesynthetiseerde cv's die alleen variëren op geslacht, leeftijd of etniciteit
- Vergelijk de scores en zoek naar statisch significante verschillen
- Herhaal de test minimaal jaarlijks en na elke modelupdate
3. Bouw menselijk toezicht in
De EU AI Act vereist "meaningful human oversight" — dat betekent niet dat een mens klakkeloos de AI-aanbeveling goedkeurt, maar dat een mens de bevoegdheid en informatie heeft om de AI te overrulen.
Hoe je dit implementeert:
- Toon de AI-score als hulpmiddel, niet als beslissing
- Geef de recruiter inzicht in de factoren achter de score
- Documenteer wanneer en waarom een recruiter afwijkt van de AI-aanbeveling
4. Informeer kandidaten
Transparantie is verplicht. Kandidaten moeten weten:
- Dat AI wordt gebruikt in het selectieproces
- Welke data wordt verwerkt
- Hoe ze bezwaar kunnen maken tegen de geautomatiseerde beoordeling
- Dat ze recht hebben op menselijke heroverweging
5. Kies de juiste tools
Niet alle AI-recruitment-tools zijn gelijk. Controleer bij je leverancier:
- Is er een onafhankelijke bias-audit uitgevoerd?
- Welke data is gebruikt voor het trainen van het model?
- Biedt de tool uitlegbaarheid (kan het laten zien waarom een kandidaat hoog of laag scoort)?
- Voldoet de tool aan de EU AI Act-vereisten voor hoog-risico systemen?
Overweeg je een bredere digitaliseringsslag? Lees ons digitalisering stappenplan voor het MKB voor een gestructureerde aanpak.
Bespaar 10 uur per week op handmatige CV-screening en eerste selectieronden
Welke recruitment-tools worden geraakt?
Een overzicht van populaire AI-recruitment-tools en hun risicoclassificatie:
| Tool | Functie | EU AI Act risiconiveau | Bias-audit beschikbaar? |
|---|---|---|---|
| HireVue | Video-interviews, assessments | Hoog risico | Ja (na FTC-onderzoek) |
| Pymetrics/Harver | Game-based assessments | Hoog risico | Ja |
| Textio | Vacaturetekst-optimalisatie | Beperkt risico | Ja |
| LinkedIn Recruiter | Kandidaat-sourcing, ranking | Hoog risico (bij automatische filtering) | Beperkt |
| ChatGPT/Claude | CV-analyse, screening | Hoog risico (bij selectiebeslissingen) | Nee (niet gebouwd voor HR) |
| Greenhouse/Lever | ATS met AI-scoring | Hoog risico (bij automatische ranking) | Verschilt per feature |
Belangrijk: het gebruik van generieke AI-tools (ChatGPT, Claude) voor CV-screening valt ook onder de hoog-risico classificatie als de output invloed heeft op selectiebeslissingen.
De stapsgewijze compliance-aanpak vind je in onze AI compliance checklist voor het MKB.
Veelgestelde vragen
De volgende stap
AI kan recruitment efficiënter en objectiever maken — maar alleen als je het goed aanpakt. De risico's van ongecontroleerde AI in werving zijn te groot om te negeren: discriminatieclaims, boetes tot 7% van je omzet, en reputatieschade die jarenlang doorwerkt.
De sleutel is balans: gebruik AI om het recruitmentproces te verbeteren, maar bouw de juiste waarborgen in. Test op bias, documenteer je keuzes, informeer kandidaten en zorg dat een mens de eindbeslissing neemt.
Wil je weten hoe je AI verantwoord kunt inzetten in je wervingsproces? Een AI-adviesgesprek helpt je bij het opzetten van een compliant en effectief recruitment-AI-framework. Voor de technische implementatie van AI-agents die voldoen aan de hoog-risico eisen, bouwen we samen een oplossing die juridisch stevig staat.
Meer weten over AI advies?
Bekijk dienst