← Terug naar alle artikelen
HR-Technologie

AI in HR: verantwoord gebruiken in 2025

AI in HR: verantwoord gebruiken in 2025

TL;DR: AI is geen toekomstmuziek meer: 73% van Nederlandse organisaties gebruikt het al in HR-processen. Deze gids laat zien welke toepassingen écht waarde toevoegen, waar de AVG- en EU AI Act-risico's liggen, en welke vragen je moet stellen vóórdat je een AI-tool aanschaft.

AI in HR is geen experiment meer

73% van Nederlandse organisaties gebruikt al AI in HR-functies. Dat blijkt uit de Youforce HR Benchmark 2026 — en dat is geen marginale trend, maar een structurele verschuiving in hoe HR-werk gedaan wordt. Van verlofverwerking tot cv-screening: AI is al diep verweven in de dagelijkse HR-praktijk.

Maar er is een opvallende kloof. Slechts 3% van diezelfde organisaties heeft HR strategisch verantwoordelijk gesteld voor AI-readiness (Youforce HR Benchmark 2026). Veel gebruik, weinig regie. Dat is precies waar het mis kan gaan.

Dit artikel is geen hype-verhaal over wat AI allemaal zou kunnen. Het is een praktisch kader voor HR-managers die AI al gebruiken — of dat binnenkort gaan doen — en het verantwoord willen aanpakken. Je leest welke toepassingen écht waarde toevoegen, waar de juridische risico's liggen rond de AVG en de EU AI Act, en welke vragen je moet stellen vóórdat je een AI-tool aanschaft.


Wat doet AI in HR eigenlijk? De meest gebruikte toepassingen

De drie dominante use cases in Nederland zijn duidelijk: 31% van de organisaties gebruikt AI voor administratieve taken, 31% voor werving en selectie, en 25% voor predictive HR analytics (Youforce HR Benchmark 2026). Dat zijn geen abstracte categorieën — achter elk percentage gaan concrete toepassingen schuil.

Bij administratieve taken gaat het om zaken als het automatisch verwerken van verlofaanvragen, het genereren van contractwijzigingen of het beantwoorden van standaardvragen van medewerkers. Bij werving en selectie wordt AI ingezet voor cv-screening, het opstellen van vacatureteksten en het scoren van kandidaten. Predictive analytics helpt HR-teams om verzuimpatronen te herkennen voordat ze escaleren, of om te voorspellen welke medewerkers een verhoogd verlooprisico hebben.

De gerapporteerde voordelen zijn concreet: 35% van de organisaties rapporteert minder administratieve fouten, 32% ziet lagere HR-kosten, en 31% heeft betere data-gedreven inzichten (Youforce HR Benchmark 2026). Dat zijn geen vage beloftes — het zijn meetbare uitkomsten die HR-teams al ervaren.

Een nuance die belangrijk is: AI ondersteunt HR-professionals, het vervangt ze niet. Routinetaken gaan naar AI; complexe situaties blijven bij mensen. Denk aan een medewerker die om 22:00 uur een vraag heeft over ouderschapsverlof. Met AI krijgt die medewerker direct een antwoord — zonder dat de HR-manager zijn avond opoffert. Maar als diezelfde medewerker in een arbeidsconflict zit, is menselijk oordeel onmisbaar.

Nederland loopt overigens voor op het Europese gemiddelde als het gaat om digitale volwassenheid: 89% van het Nederlandse MKB heeft het basisniveau van digitale intensiteit bereikt, tegenover 71% gemiddeld in de EU (CBS, 2025). De infrastructuur voor AI-adoptie is er — de vraag is of de governance dat bijhoudt.


De compliance-realiteit: EU AI Act en AVG gaan hand in hand

De EU AI Act is geen toekomstige wetgeving meer. Sinds mei 2026 is deze van kracht in Nederland, en voor HR-teams heeft dat directe gevolgen. AI-tools die worden ingezet voor werving en selectie vallen in de high-risk categorie van de EU AI Act. Dat betekent niet dat je ze niet mag gebruiken — maar wel dat je aantoonbaar maatregelen moet nemen tegen bias, verplichte documentatie moet bijhouden en zorgvuldig datamanagement moet kunnen aantonen.

Tegelijkertijd geldt de AVG onverminderd. De combinatie van beide wetgevingen is geen keuze tussen óf/óf, maar een verplichting van én/én. Wie denkt dat de EU AI Act de AVG vervangt, heeft het mis — beide zijn van toepassing, en ze versterken elkaars eisen.

Een concreet voorbeeld van hoe het mis kan gaan: de gemeente Eindhoven stuurde duizenden bestanden met persoonsgegevens — inclusief cv's — naar externe AI-platforms. Dit is geen theoretisch scenario, maar een reëel risico dat zich al heeft voorgedaan. Zodra persoonsgegevens een extern platform bereiken zonder verwerkersovereenkomst of adequate beveiliging, is er sprake van een potentiële AVG-overtreding.

Bryan Peereboom van de Nationale Academie voor AI waarschuwt dat de onduidelijkheid over handhaving het niet minder urgent maakt. "Gigantische boetes zijn mogelijk," stelt hij — maar de nadruk ligt niet op angst, maar op actie. De praktische vuistregel is helder: gebruik AI zoveel mogelijk zonder persoonsgegevens te delen met externe platforms. Hoe minder persoonsgegevens de organisatie verlaten, hoe kleiner het risico.

Wil je weten hoe je een AI-tool concreet toetst aan de AVG-vereisten? Lees dan hoe AI-tools voor HR evalueren op AVG-compliance voor een stapsgewijze aanpak.


Bias bij werving en selectie: het grootste risico van AI in HR

Van alle toepassingen van AI in HR is werving en selectie juridisch het meest gevoelig. AI-tools die cv's screenen of kandidaten scoren, zijn wettelijk verplicht om discriminatiepatronen actief te filteren. Dat klinkt vanzelfsprekend — maar in de praktijk is bias vaak onzichtbaar.

Een model dat getraind is op historische aanstellingsdata reproduceert historische vooroordelen. Als een organisatie de afgelopen tien jaar voornamelijk mannen heeft aangenomen voor technische functies, leert het model dat mannelijke kandidaten "beter passen." Dat is geen opzettelijke discriminatie — het is een structureel probleem in de trainingsdata.

Er zijn drie concrete stappen om bias te detecteren en te beperken. Ten eerste: analyseer scoringspatronen per demografische groep. Scoren vrouwelijke kandidaten structureel lager dan mannelijke kandidaten met vergelijkbare profielen? Dan is er iets mis. Ten tweede: controleer welke data het model gebruikt. Vraag de leverancier expliciet naar de samenstelling van de trainingsdata en de methoden om bias te corrigeren. Ten derde: stel een periodieke audit in. Bias-detectie is geen eenmalige check, maar een doorlopend proces.

Let ook op rode vlaggen bij AI-leveranciers: geen transparantie over trainingsdata, geen bias-rapportage en geen mogelijkheid tot menselijke override zijn signalen dat een tool niet geschikt is voor gebruik in werving en selectie.

De urgentie hiervan neemt toe. 40% van werkzoekenden onder 30 gebruikt al AI-chatbots bij het zoeken naar werk (Academie voor Arbeidsmarktcommunicatie, 2025). Kandidaten zijn zelf ook AI-gebruikers — ze weten wanneer een selectieproces oneerlijk aanvoelt. Dat verhoogt de lat voor transparantie en eerlijkheid aanzienlijk.

De eindverantwoordelijkheid ligt altijd bij de HR-medewerker. AI adviseert, de mens beslist. Dat is niet alleen een ethisch principe — het is een wettelijke vereiste onder de EU AI Act voor high-risk toepassingen.


Checklist: wat moet je controleren vóór je een AI-tool aanschaft?

Voordat je een AI-tool uitrolt in jouw HR-processen, zijn er zes categorieën die je moet doorlopen. Gebruik dit als minimale due diligence — niet als bureaucratische formaliteit, maar als bescherming voor jouw organisatie én jouw medewerkers.

1. Dataverwerking: Waar worden persoonsgegevens opgeslagen? Blijft data binnen de EU? Is er een verwerkersovereenkomst beschikbaar? Dit zijn geen optionele vragen — zonder duidelijke antwoorden is de tool niet AVG-compliant.

2. Bias en transparantie: Kan de leverancier bias-testresultaten tonen? Is er een auditlog van beslissingen? Een leverancier die hier vaag over is, heeft iets te verbergen.

3. EU AI Act-classificatie: Valt de tool in de high-risk categorie? Zo ja, welke documentatie levert de leverancier aan? Vraag expliciet naar de conformiteitsverklaring.

4. Menselijke controle: Is er altijd een mogelijkheid tot menselijke override? Hoe worden escalaties afgehandeld? Een tool zonder escalatiemechanisme is ongeschikt voor HR-gebruik.

5. Integratie en beveiliging: Hoe integreert de tool met bestaande HR-systemen? Welke toegangscontroles zijn er? Wie heeft toegang tot welke data?

6. Kosten en ROI: Wat zijn de totale kosten inclusief implementatie en training? Hoe meet je succes? Een lage aanschafprijs kan misleidend zijn als de implementatiekosten hoog zijn.

Een belangrijk aandachtspunt bij de uitrol: 51% van Nederlandse AI-gebruikers heeft geen gebruiksinstructies van de werkgever ontvangen (HR Morgen / Newton onderzoek, 2026). Dat betekent dat medewerkers AI-tools gebruiken zonder kader — met alle risico's van dien. Stel interne richtlijnen op vóórdat je uitrolt, niet erna. Lees ook hoe je shadow AI in de werkplek voorkomen kunt aanpakken, want ongecontroleerd AI-gebruik door medewerkers is een risico dat vaak onderschat wordt.


Hoe Aura verantwoord AI in HR toepast

De checklist uit de vorige sectie klinkt misschien abstract. Aura laat zien hoe die criteria er in de praktijk uitzien.

Aura is specifiek gebouwd voor HR — geen generieke chatbot die je zelf moet configureren, maar een purpose-built oplossing die antwoorden geeft op basis van jouw bedrijfsbeleid én het Nederlandse arbeidsrecht. Er zijn geen hallucinaties: elk antwoord is gegrond in geverifieerde bronnen. Dat is precies wat de EU AI Act en de AVG vereisen van high-risk toepassingen.

Een concreet voorbeeld: een medewerker vraagt om 23:00 uur naar zijn rechten bij ziekte tijdens de proeftijd. Aura geeft direct een antwoord op basis van het Nederlandse arbeidsrecht en het geldende bedrijfsbeleid. Persoonsgegevens verlaten het ecosysteem van de organisatie niet — AVG-compliant by design. En als de situatie menselijk oordeel vereist — bijvoorbeeld omdat er sprake is van een arbeidsconflict — escaleert Aura automatisch naar de HR-medewerker.

Zo werkt de balans tussen AI en mens in de praktijk: routinevragen worden direct beantwoord, complexe situaties komen bij de juiste persoon terecht.


De rol van de HR-medewerker in een AI-gedreven organisatie

AI neemt repetitief werk over — maar dat maakt HR strategisch belangrijker, niet overbodig. De vrijgekomen tijd kan worden ingezet voor coaching, beleidsontwikkeling en het begeleiden van complexe situaties die menselijk oordeel vereisen. Dat is precies waar HR het verschil maakt.

Toch laat slechts 18% van Nederlandse organisaties HR de trekker zijn van AI-adoptie. Dat is een gemiste kans. Wie anders dan HR bewaakt de ethische en juridische kaders rondom AI-gebruik? IT heeft de technische kennis, maar HR heeft het contextuele begrip van wat eerlijk, veilig en wettelijk is in de omgang met medewerkers.

HR-professionals die de regie willen nemen, hebben nieuwe vaardigheden nodig: AI-geletterdheid, bias-detectie en governance. Dat zijn geen IT-vaardigheden — het zijn HR-vaardigheden voor 2025 en verder. AI-geletterdheid is bovendien geen eenmalige training, maar een doorlopend proces dat meerdere jaren in beslag neemt naarmate de technologie zich ontwikkelt.

Praktisch advies: start met één use case, meet de impact, en bouw van daaruit verder. Een big bang-implementatie waarbij je alle HR-processen tegelijk omgooit, vergroot de kans op fouten en weerstand. Begin klein, leer snel, schaal op wat werkt. Lees meer over hoe AI HR-teams ondersteunt zonder ze te vervangen voor een dieper inzicht in deze verschuiving.


Verantwoord AI-gebruik begint bij HR

AI in HR biedt reële voordelen — minder fouten, lagere kosten, betere inzichten. Maar compliance is geen bijzaak. De EU AI Act en de AVG zijn geen administratieve lasten die je kunt uitstellen; ze zijn van kracht en ze gelden voor jouw organisatie.

De organisaties die het goed doen, behandelen verantwoord AI-gebruik als concurrentievoordeel. Ze bouwen vertrouwen bij medewerkers, vermijden juridische risico's en positioneren HR als strategische partner in plaats van uitvoerende afdeling. Dat begint niet bij IT of de directie — het begint bij HR.

Benieuwd hoe Aura past binnen jouw compliance-kaders en hoe het eruitziet in de praktijk? Plan een vrijblijvend gesprek met het Aura-team en ontdek wat verantwoord AI-gebruik voor jouw organisatie betekent.

Veelgestelde vragen

Wat zijn de grootste compliance-risico's van AI in HR?

De twee belangrijkste risico's zijn schendingen van de AVG en de EU AI Act. AI-tools voor werving en selectie vallen onder de high-risk categorie van de EU AI Act, wat betekent dat je aantoonbaar maatregelen moet nemen tegen bias en verplichte documentatie moet bijhouden. Daarnaast is het delen van persoonsgegevens — zoals cv's — met externe AI-platforms een concreet AVG-risico, zoals de gemeente Eindhoven aantoonde.

Hoe gebruik je AI bij werving en selectie zonder discriminatie?

Begin met het analyseren van scoringspatronen per demografische groep om verborgen bias te detecteren. Controleer welke trainingsdata het AI-model gebruikt, want modellen die getraind zijn op historische aanstellingen reproduceren historische vooroordelen. Stel een periodieke audit in en zorg altijd voor een menselijke eindverantwoordelijkheid: AI adviseert, de HR-medewerker beslist.

Wat betekent AI voor de rol van de HR-medewerker?

AI neemt repetitieve taken over — denk aan verlofverwerking, basisvragen van medewerkers en administratieve rapportages — maar maakt de HR-professional daardoor strategisch belangrijker, niet overbodig. De vrijgekomen tijd kan worden ingezet voor coaching, beleidsontwikkeling en het begeleiden van complexe situaties die menselijk oordeel vereisen. HR-medewerkers die AI-geletterd zijn en de regie nemen over AI-adoptie, worden een onmisbare schakel in de organisatie.

Welke AI-tools zijn geschikt voor MKB HR-teams in Nederland?

Kies tools die AVG-compliant zijn, persoonsgegevens binnen de EU opslaan en transparantie bieden over hun werking. Voor MKB-teams is het belangrijk dat een tool purpose-built is voor HR — geen generieke chatbot die je zelf moet configureren — en dat de leverancier een verwerkersovereenkomst kan aanleveren. Vraag altijd naar bias-testresultaten en controleer of de tool valt onder de high-risk categorie van de EU AI Act.

Moet je als HR-manager iets doen met de EU AI Act?

Ja, zeker als je AI-tools inzet voor werving, selectie of prestatiebeoordeling. Deze toepassingen vallen in de high-risk categorie van de EU AI Act, die al van kracht is in Nederland. Dat betekent dat je moet kunnen aantonen dat je actief maatregelen neemt tegen bias, dat je documentatie bijhoudt en dat er menselijk toezicht is op AI-beslissingen. Wacht niet op handhaving — de verplichting geldt nu al.

Arun Mohan
Over de auteur: Arun Mohan

Drives product development and AI innovation in HR. Formerly with Sleek and Expedia, he's an expert in AI, Automation and digital transformation.

Klaar om uw HR te transformeren?

Ontdek hoe de AI-oplossingen van Aura Hr uw personeelsbeheer kunnen revolutioneren.

Aan de slag