Steeds meer bedrijven zetten kunstmatige intelligentie (AI) in bij het wervingsproces. Van het screenen van cv’s tot het analyseren van videointerviews en het voorspellen van culturele fit: AI belooft snelheid, efficiëntie en objectiviteit. Maar deze technologie komt ook met juridische risico’s. Hoe zorg je dat je bij AI-gestuurde recruitmentmethodes binnen de grenzen van de wet blijft? In deze blog zetten we de belangrijkste juridische aandachtspunten op een rij.
Toestemming en transparantie onder de AVG
De inzet van AI in recruitment betekent dat je persoonsgegevens verwerkt, soms zelfs gevoelige data, zoals etniciteit, taalgebruik of non-verbale communicatie. Volgens de Algemene Verordening Gegevensbescherming (AVG) moet je altijd duidelijk maken welke data je verzamelt, waarom je dat doet, en wat de gevolgen zijn.
Transparantie is cruciaal. Kandidaten moeten weten dat er AI wordt gebruikt, op welke manier en met welk doel. Dit betekent dat je AI niet ‘stilletjes’ in de achtergrond mag laten draaien. Ook moet je aangeven of de beslissing (bijvoorbeeld afwijzing) volledig geautomatiseerd is, iets wat in veel gevallen niet is toegestaan zonder expliciete toestemming van de kandidaat.
Beperken van (onbedoelde) discriminatie
Een van de grootste zorgen rond AI in werving is het risico op bias, ofwel: dat het algoritme discrimineert op basis van geslacht, leeftijd, afkomst of andere beschermde kenmerken. Zelfs als je zelf neutrale data invoert, kan een AI-model toch bevooroordeelde patronen herkennen uit historische datasets.
Volgens de wet (en met name artikel 1 van de Grondwet en de Wet gelijke behandeling) is discriminatie in het wervingsproces verboden. Dit betekent dat organisaties die AI inzetten verplicht zijn om de werking van het systeem kritisch te evalueren. Je moet kunnen aantonen dat het model géén oneerlijke of discriminerende effecten heeft en dat er menselijk toezicht is bij cruciale beslissingen.
Recht op menselijke tussenkomst
De AVG stelt dat sollicitanten het recht hebben op een menselijke beoordeling als zij worden afgewezen op basis van een geautomatiseerd proces. Dit betekent dat een AI‑systeem niet zelfstandig mag bepalen of iemand wel of niet wordt uitgenodigd voor een gesprek, tenzij er duidelijke waarborgen zijn én de kandidaat dit accepteert.
Je moet dus altijd een proces hebben waarin:
- Een mens een afwijkend oordeel kan geven;
- De sollicitant bezwaar kan maken tegen een beslissing;
- Uitleg gegeven kan worden over het besluit (lees: uitlegbaarheid van het algoritme).
Verantwoordelijkheid en toezicht
Bij het gebruik van AI in recruitment is het essentieel om duidelijke rollen en verantwoordelijkheden te benoemen. Wie is de verwerkingsverantwoordelijke? Wie beoordeelt of het model eerlijk functioneert? En wie houdt toezicht op updates en datakwaliteit?
Zeker bij het inkopen van AI-software van externe partijen is het belangrijk dat je als organisatie:
- Een verwerkersovereenkomst sluit;
- Voldoende inzicht krijgt in de werking van het algoritme (geen ‘black box’);
- Periodiek controleert op rechtmatigheid, betrouwbaarheid en nauwkeurigheid.
Aankomende AI-verordening (AI Act)
Naast de AVG komt er in Europa een aanvullende wetgeving: de AI Act, naar verwachting van kracht in 2026. AI in recruitment wordt in deze wet geclassificeerd als hoog-risico‑toepassing, wat betekent dat je moet voldoen aan extra eisen zoals:
- Risicoanalyses uitvoeren;
- Menselijk toezicht organiseren;
- Logbestanden bewaren;
- De werking van het systeem documenteren.
Het is dus slim om nu al je AI‑toepassingen in kaart te brengen en voor te bereiden op deze strengere regels.
Slim inzetten, maar met juridische zorg
AI kan een krachtige tool zijn in het recruitmentproces, mits goed toegepast. Transparantie, gelijke behandeling, menselijke controle en naleving van privacyregels zijn geen ‘nice-to-haves’, maar wettelijke vereisten. Door hier vanaf het begin rekening mee te houden, bouw je niet alleen aan een toekomstbestendig recruitmentproces, maar ook aan vertrouwen bij kandidaten én compliance met wetgeving.