
Zorgorganisaties zetten steeds vaker AI in om sneller en efficiënter personeel te werven. Handig in een sector die kampt met structurele arbeidsmarktkrapte. Maar achter de belofte van objectieve selectie en kortere doorlooptijden schuilt een risico: bias, ondoorzichtige algoritmes en juridische valkuilen liggen op de loer. Hoe voorkom je dat technologie leidt tot ongelijke kansen of zelfs claims?
Artificiële intelligentie (AI) wordt steeds vaker ingezet in werving en selectie van potentiële werknemers om processen te versnellen en efficiënter in te richten. Denk aan het automatisch laten screenen van CV’s, het gebruik van chatbots voor de eerste interactie met kandidaten of voorspellende assessments die inschatten wie de meest geschikte kandidaat is. Zeker in de zorg, waar arbeidsmarktkrapte structureel is, lijkt AI een efficiënte oplossing om sneller en objectiever te selecteren.
Op het eerste gezicht biedt AI veel voordelen. Minder administratieve lasten, kortere doorlooptijden en een meer data gedreven aanpak van werving. Maar deze belofte kent ook een schaduwzijde. Zonder duidelijke kaders en kritisch HR-toezicht kan de inzet van AI juist leiden tot discriminatie, reputatieschade en juridische claims. De vraag is daarom niet óf AI wordt ingezet voor werving en selectie, maar hoe organisaties dit verantwoord kunnen doen.
Waar gaat het mis?
AI-systemen leren op basis van historische (trainings-)data. Juist in die data verschuilt een belangrijk risico. In de zorg weerspiegelt deze data vaak al bestaande ongelijkheden: een scheve genderverdeling per functie, leeftijdsopbouw of beperkte culturele of etnische diversiteit. Het gevolg is dat bepaalde groepen structureel lager scoren of worden uitgesloten, zonder dat daar een bewuste keuze aan ten grondslag ligt. Juridisch spreken we dan van indirecte discriminatie.
Daarnaast speelt privacy een grote rol, aangezien AI-systemen grote hoeveelheden persoonsgegevens verzamelen en analyseren. Soms meer dan noodzakelijk. Kandidaten zijn zich ook lang niet altijd bewust van welke gegevens worden gebruikt, voor welk doel en hoe lang deze gegevens worden bewaard. De vraag is eigenlijk: is iedere kandidaat überhaupt op de hoogte dat diens gegevens worden gebruikt?
Tot slot zijn AI-beslissingen daarnaast vaak moeilijk uitlegbaar. Waarom valt een kandidaat af? Als de HR-afdeling deze vraag niet kan beantwoorden, staat de organisatie juridisch zwak. Kandidaten hebben namelijk het recht om te begrijpen op basis waarvan zij zijn beoordeeld en afgewezen.
Het juridisch kader
De inzet van AI in werving en selectie raakt aan meerdere wetten en regelgevingen. In samenhang bepalen deze kaders wat wel en niet is toegestaan.
AI-verordening (EU AI Act)
Op grond van de Europese AI-verordening worden AI-systemen die worden gebruikt voor het evalueren en selecteren van kandidaten aangemerkt als hoog-risico AI-systemen. De reden hiervoor is dat deze systemen directe impact kunnen hebben op fundamentele rechten, zoals o.a. het recht op gelijke behandeling en privacy.
Voor hoog-risico AI gelden strenge verplichtingen, waaronder:
- een structureel risicobeheerproces;
- eisen aan de kwaliteit en representativiteit van gebruikte data;
- uitgebreide technische documentatie en registratie;
- transparantie over de werking van het systeem;
- en verplicht menselijk toezicht.
AI in werving is daarmee geen ‘HR-tool’ meer, maar een onderwerp dat governance, compliance en bestuur raakt.
NB: Interessant is dat de Wet toezicht gelijke kansen bij werving en selectie in maart 2024 door de Eerste Kamer is verworpen. Deze wet zou betekenen dat er specifieke verplichtingen voor werkgevers zouden gaan gelden bij de inzet van AI bij werving en selectie. Denk dan aan o.a. een verplicht antidiscriminatiebeleid. De Arbeidsinspectie zou hierop toezicht houden en kon ingrijpen bij niet-naleving. Dit is interessant en relevant, omdat het verwerpen van deze wet niet betekent dat werkgevers minder verplichtingen hebben.
Integendeel: de bestaande gelijkebehandelingswetgeving, de AVG en inmiddels ook de EU AI Act vullen deze ‘leemte’ al grotendeels op. In plaats van één nationale toezichtswet krijgen organisaties hedendaags te maken met een complexer samenspel van Europese regels, waarbij handhaving verspreid ligt over meerdere toezichthouders. En voor HR betekent dit meer verantwoordelijkheid om zelf beleid, documentatie en toezicht te organiseren op grond van de geldende wet- en regelgeving bij de inzet van AI in werving en selectie.
Gelijke behandelingswetgeving
Het algemene discriminatieverbod uit artikel 2 van de Algemene wet gelijke behandeling is onverkort van toepassing. Dit verbod ziet zowel op direct als indirect onderscheid, tenzij sprake is van een objectieve rechtvaardiging: een legitiem doel, passende middelen en noodzakelijkheid.
Daarnaast gelden specifieke verboden, zoals o.a.:
- het verbod op onderscheid naar geslacht bij werving en selectie (Wet gelijke behandeling van mannen en vrouwen);
- het verbod op onderscheid op grond van handicap of chronische ziekte (Wet gelijke behandeling op grond van handicap of chronische ziekte).
Het feit dat discriminatie voortkomt uit een algoritme in plaats van een mens, doet juridisch niet ter zake. De organisatie blijft hiervoor verantwoordelijk.
AVG en geautomatiseerde besluitvorming
De Algemene Verordening Gegevensbescherming (AVG) stelt aanvullende eisen:
- persoonsgegevens moeten transparant, doelgericht en minimaal worden verwerkt;
- kandidaten moeten worden geïnformeerd over het gebruik van AI;
- volledig geautomatiseerde besluitvorming met nadelige gevolgen is in beginsel verboden.
Op grond van artikel 12 en 22 AVG hebben betrokkenen het recht om menselijke tussenkomst te verzoeken en uitleg te krijgen over besluiten die hen raken.
Claims van afgewezen kandidaten
De inzet van AI in werving en selectie vergroot de kans op claims van afgewezen kandidaten. Niet alleen bij vermeende discriminatie, maar ook wanneer kandidaten onvoldoende inzicht krijgen in de rol van AI in het selectieproces.
Op grond van de AVG en de Uitvoeringswet AVG hebben afgewezen kandidaten recht op:
- inzage in hun persoonsgegevens;
- uitleg over hoe en waarom AI is ingezet;
- informatie over de belangrijkste factoren die tot de afwijzing hebben geleid;
- menselijke tussenkomst en de mogelijkheid om het besluit aan te vechten (artikelen 12 en 22 AVG, artikel 40 Uitvoeringswet AVG).
Deze informatie moet binnen één maand worden verstrekt en in begrijpelijke taal. Een technische of globale toelichting is onvoldoende.
Daarnaast verplicht de EU AI Act zorgorganisaties die AI inzetten bij werving en selectie (hoog-risico AI) om transparant te zijn over de rol van het AI-systeem in de besluitvorming. Afgewezen kandidaten hebben recht op uitleg wanneer een AI-besluit aanzienlijke gevolgen heeft, zoals het mislopen van werkgelegenheid.
Kan HR deze uitleg niet geven, dan vergroot dit het risico op klachten bij de Autoriteit Persoonsgegevens, discriminatieprocedures en civiele claims. Transparantie en documentatie zijn daarom geen formaliteit, maar essentieel risicomanagement, ook om verdere claims te voorkomen en te beperken.
Uitzonderingen: wanneer mag onderscheid wél?
Indirect onderscheid kan in sommige gevallen gerechtvaardigd zijn, mits wordt voldaan aan de criteria uit artikel 2 van de Algemene wet gelijke behandeling. Ook kan het voor bepaalde functies noodzakelijk zijn dat iemand beschikt over specifieke kenmerken, bijvoorbeeld vanwege veiligheid, authenticiteit of wettelijke vereisten. Deze uitzonderingen moeten echter proportioneel, noodzakelijk en goed onderbouwd zijn. AI ontslaat organisaties niet van deze onderbouwing.
De mythe van objectieve selectie
Veel organisaties kiezen voor AI-systemen vanuit de wens om objectiever te selecteren. Menselijke recruiters hebben immers ook vooroordelen. Toch is AI geen wondermiddel voor neutraliteit. De menselijke bias wordt niet vervangen door AI, maar verplaatst deze naar data en ontwerpkeuzes. Denk dan aan keuzes als: welke data gebruik je? Welke kenmerken tellen mee? Wie bepaalt wat ‘’succesvol functioneren’’ is?
Zonder expliciete keuzes en voortdurende (menselijke) reflectie sluipt bias ongemerkt het AI-systeem in. Het verschil is alleen dat het nu schaalbaar en minder zichtbaar is. In werving- en selectieprocessen wordt het professionele oordeel van de HR-professional des te belangrijker.
AI als copiloot, niet als beslisser
De oplossing ligt niet zozeer in het vermijden van AI, maar juist in het verstandig positioneren ervan. AI kan HR professionals ondersteunen als copiloot, maar mag nooit de eindbeslisser zijn.
Praktische handvatten:
- Gebruik AI voor de voorselectie van kandidaten, niet voor definitieve afwijzing.
- Combineer AI met gestructureerde interviews.
- Zet in op skill-based hiring in plaats van profielmatching op historische functies.
- Monitor uitkomsten actief op ongewenste effecten.
- Zorg dat de verantwoordelijke gebruikers begrijpen hoe het AI-systeem werkt en waar de grenzen liggen.
mr. Bente Brouwer is ondernemingsjurist bij The Legal Company

Gebruikt jouw organisatie AI-systemen in wervings- en selectieprocessen? Laat je dan goed adviseren over de juridische en organisatorische implicaties. Dat voorkomt niet alleen mogelijke claims, maar versterkt ook het vertrouwen van (toekomstige) medewerkers. Heb je vragen over de inzet van AI-systemen in werving en selectie? Neem dan contact op met de ondernemingsjuristen van The Legal Company via info@thelegalcompany.nl of bel 020-3450152.
