Recruiten met AI

Recruiten met AI - Interview Banning Advocaten

De balans tussen Goudmijn en Mijnenveld

AI in recruitment is als de nieuwste sportauto: snel, glanzend, sexy en iedereen wil er een rondje in rijden. Maar zonder instructies, ervaring en verkeersregels is het meer dan aannemelijk dat je vroeg of laat crasht. Terwijl AI ook het HR-landschap stormachtig verandert met slimme tools voor bijvoorbeeld cv screening, chatbots en zelfs video-interviewanalyses, vragen wij ons af hoe we gaan voorkomen dat we met deze AI-sportwagen tegen een juridische muur knallen. We spreken daarom met advocaten Floris de Vriend en Floortje Eijdems van Banning Advocaten over de kansen én valkuilen van AI in recruitment. Spoiler alert: het gaat niet alleen om hoe goed de technologie is, maar ook hoe goed jij de regels kent…

Laten we eerst eens ingaan op de functies die we kunnen bedenken voor AI en die voor een deel ook al mogelijk zijn.

  • CV-screening: AI kan automatisch een screening en selectie van cv’s voor je doen.
  • Chatbots: een chatbot kan 24/7 klaarstaan om de meest voorkomende vragen van kandidaten te beantwoorden.
  • Voorspellende analyses: bijvoorbeeld als we het koppelen aan ERP software, kun je voorspellen wanneer we nieuwe medewerkers nodig hebben; op basis van order-intake, vakantieperioden, organisch verloop, ziekte, etc. Dit helpt je om tijdig te beginnen met werven.
  • Bias verminderen. Bias kun je kort uitleggen als vooroordeel. We zoeken allemaal de juiste kandidaat voor een functie, ongeacht afkomst, geslacht, sociaal economische status, etc. AI kan helpen het sollicitatieproces eerlijker te maken (als je het goed aanpakt).
  • Verminderen repeterend werk. Hoewel dit meer automatisering is dan AI, wordt dit veel toegeschreven aan AI.
  • Talent Pools beheren. AI struint jouw funnel en social media af op zoek naar kandidaten met de juiste skills voor een bepaalde vacature.
  • Video-interviewanalyse. Videosollicitaties worden steeds normaler. AI kan in een video zoeken naar signalen om karakter en persoonlijkheid in te schatten.

 

Wij worden eigenlijk behoorlijk enthousiast van de mogelijkheden die AI belooft. Maar let op: niet alles wat glimt, is goud. AI kan ook onverwachte obstakels opwerpen, zoals bias die je juist wilt vermijden. En dan zijn er de juridische en ethische mijnenvelden waar je doorheen moet navigeren. Zoals Floortje Eijdems treffend zegt: “Als je iets niet mag vragen in een sollicitatiegesprek, mag AI het ook niet achter je rug om doen.”

Is AI minder bevooroordeeld dan een mens?

We kunnen ons niet verschuilen achter beslissingen die een systeem maakt. Kun jij als recruiter uitleggen waarom een algoritme kandidaat A wel selecteert en kandidaat B niet?

Floris de Vriend haalt een anekdote aan over dating app Breeze: “Gebruikers van de app werden hierbij gematcht aan anderen door een zelflerend algoritme. Sommige gebruikers gaven aan dat de gematchte kandidaten niet divers waren. Breeze had vervolgens het vermoeden dat het algoritme voor gebruikers met een bepaalde afkomst of huidskleur een lagere matchingskans had. Daardoor ontstond de verwachting dat het algoritme discrimineerde. Breeze wilde vervolgens maatregelen nemen, maar het risico bestond dat deze maatregelen zelf dan ook weer discriminatoir zijn. Wat mooi is aan deze case, is dat Breeze zelf naar het College van de Rechten van de Mens is gestapt om haar handelen voor te leggen. Volgens het College rust op Breeze de verplichting om maatregelen te nemen. Maar hoe deze maatregelen zich verhouden tot – bijvoorbeeld – de AVG, is complex.  Het is bijzonder ethisch van de mensen achter Breeze dat ze dit pro-actief aanvliegen, maar het toont maar weer aan dat we heel veel gewoon nog niet sluitend hebben in regelgeving.”

AI in sollicitatievideo’s

Dit voorbeeld laat zien hoe AI (onbewust) beslissingen kan nemen op basis van huidskleur: dus een (bijzonder) persoonsgegeven. Hier geldt een verwerkingsverbod voor. Deze mag je dus helemaal niet gebruiken, zonder uitzondering op dat verbod, zoals uitdrukkelijke toestemming. Kijken we naar video-analyse, dan geldt eigenlijk hetzelfde; als je AI in een sollicitatie-video zou laten zoeken naar signalen van bijvoorbeeld een burn-out, dan ben je gezondheidsgegevens aan het analyseren. En dat mag niet. Floortje: “Zelfs als je de kandidaat zou ‘anonimiseren’ naar een nummer, blijft dit gegeven gekoppeld aan een persoon en dus herleidbaar (want je wilt uiteindelijk een persoon aannemen). Dan spreken we in feite over pseudonimiseren en geldt nog steeds de AVG.” Floris vult aan: “In feite gebruik je video-analyse met AI in dit geval met als doel om ziekte te voorspellen. Zulke software kan soms als medisch hulpmiddel gezien worden en daar is weer aparte regelgeving voor.”

Floris vervolgt: “Stel dat je niet op zoek bent naar een medisch beeld van iemand, maar zoekt naar signalen van bepaalde persoonlijke aspecten om beroepsprestaties te voorspellen. In zo’n geval spreken is er een risico op profilering. Dit kan toegestaan zijn, maar hiervoor geldt doorgaans een hoge risicoclassificatie. Dit komt aan bod in de AI ACT. Documenten die uitleg geven over de AI ACT zijn nog volop in ontwikkeling. In ieder geval brengt een hoge risicoclassificatie met zich mee dat er kritisch gekeken moet worden naar het systeem en dient er de nodige documentatie opgesteld worden. Dit kost enorm veel tijd – en geld.”

Shit in = shit out

In het voorbeeld van Breeze heeft de AI engine zichzelf ‘geleerd’ om onderscheid te maken en bestaat het risico op discriminatie op basis van huidskleur, door gebruik te maken van gebruikersdata en data uit het verleden. Je kunt je daarom afvragen of input nu werkelijk een goede afspiegeling is van de menselijke identiteit… Waar komt die data vandaan? De bias kan al zitten in de training van het AI-model. Hetzelfde geldt voor automatisering: als je onzin gaat automatiseren, krijg je geautomatiseerde onzin.

Dus hoe zorgen we nu voor een goed startpunt? Moeten we dan ons beleid afstemmen op het doorbreken van bias? Of krijg je dan juist het omgekeerde, in de vorm van ‘positieve discriminatie’? In principe bestaat ‘positieve discriminatie’ niet, simpelweg omdat dit ook discriminatie is – wat niet mag. Floris: “als je niet in het begin van je technologische ontwikkeling al rekening houdt met dit soort ethische keuzes, bestaat het risico op een soort losgeslagen beest. Voorkomen is beter dan genezen.”

Banning Advocaten - Recruiten met AI artikel

AI en de wet: een tikkende tijdbom?

AVG: Het speelveld van privacy

De AVG is duidelijk: kandidaten hebben recht op transparantie en menselijke tussenkomst bij belangrijke beslissingen. Artikel 22 verbiedt volledig geautomatiseerde beslissingen zonder menselijke evaluatie. Maar hoe ver kunnen we hierin gaat en wat betekent dit voor jouw ATS-software?

Floris en Floortje geven aan dat een kandidaat niet mag worden afgewezen zonder menselijke tussenkomst. Maar misschien mogen beslissingen wel genomen worden door AI in de recruitment- en sollicitatiefase? De Algemene Verordening Gegevensbescherming (AVG, ook wel bekend onder het Engelse GDPR) geeft wat regels als leidraad. Floortje: “Het is heel goed dat deze wetgeving er is, maar het is voor de meeste organisaties vrijwel onmogelijk om 100% compliant te zijn. Neem bijvoorbeeld de verplichting om transparant te informeren. Soms staat privacy op gespannen voet met bedrijfsgeheimen en daarbij moet informatie ook nog in Jip en Janneke-taal worden verstrekt. Hoe transparant moeten we zijn? Wij zijn voorstander van een praktische benadering, die ook nog werkbaar is.

Voorwaardelijk is dat iedere organisatie die aan de slag wil met privacy, intrinsiek gemotiveerd is om compliant te wíllen zijn. Hiervoor is begeleiding nodig vanuit de toezichthouder. In plaats van aandraaien van de duimschroeven: help organisaties met advies over hoe ze het moeten aanpakken. Ga niet alles verbieden, want dan gebeurt het stiekem en wordt het een risico acceptatie voor organisaties. Geef handvatten voor hoe het wel kan, in plaats van aangeven wat allemaal niet kan.”

In Nederland hebben we de Autoriteit Persoonsgegevens (AP) en zij zijn ook bezig met nieuwe handreikingen op het gebied van AI. Floris licht toe dat alhoewel de AI verordening er is, er nog een aantal toelichtende documenten opgesteld zullen worden, naar verwachting binnen korte termijn.

Het is niet altijd even duidelijk waar de verantwoordelijkheid ligt tussen een organisatie en bijvoorbeeld een ATS-leverancier als er problemen zijn op basis van AI-beslissingen. Kun je dit altijd in een contract vastleggen? En hoe zit het dan met fouten in software? Een mooi voorbeeld van een onduidelijke open norm is verplichting om te voldoen aan AI-geletterdheid. “De AI ACT spreekt in artikel 4 over AI-geletterdheid. Aanbieders en gebruikersverantwoordelijken moeten zorgen voor een ‘toereikend niveau van AI-geletterdheid bij personeel en gebruikers’. Maar daar gaan we weer: wat is dan toereikend? Als organisatie die een AI tool in gebruik neemt, moet je goed afwegen wat voor effect dit heeft op de eindgebruikers en hun niveau. Is het gebruik van de AI tool echt nodig – of haal je daarmee alleen maar meer risico’s naar binnen? Wellicht volstaat een “simpele” applicatie voor de behoefte vanuit de organisatie? ”, aldus Floris.

Het recht van de kandidaat

Een belangrijk gegeven is dat kandidaten rechten hebben. Zij hebben het recht op informatie en kunnen eisen dat de gegevens die jij over hen hebt verzameld inzichtelijk worden gemaakt én… ze kunnen besluiten aanvechten.

Floortje geeft aan dat het voor betrokkenen voorzienbaar moet zijn wat er met je gegevens gebeurt. Maar hoe maken we dat goed duidelijk in een ATS? Is een privacyverklaring voldoende? We weten uit ervaring dat die slecht gelezen worden.

De Britse verzekeraar F-Secure plaatste in 2014 in zijn privacy statement een clausule waarin stond dat de eerste die dit las en zich meldde een geldbedrag zou winnen. Pas vijf maanden (!) later meldde zich de oplettende persoon die uiteindelijk het bedrag won. Deze actie was bedoeld om het bewustzijn te vergroten over het lezen van privacyverklaringen. Maar laten we eerlijk zijn: als we iets hebben geleerd van de Privacy- en cookiemeldingen, is het dat we blindelings op de groene (of rode) knop moeten drukken.

Ook is er straks op grond van de AI-verordening een transparantieverplichting voor software ontwikkelaars die AI gebruiken. Zij moeten communiceren over het gebruik van AI en zeker in recruitment is dit van belang; je bevindt je hiermee namelijk sneller in een hogere risicoclassificatie. Floris: “Als je een AI chatbot wil gaan gebruiken, kunnen er in het algemeen additionele transparantieverplichtingen zijn. Kort gezegd moeten de betrokken natuurlijke personen worden geïnformeerd dat zij communiceren met een AI-systeem. Als die chatbot wordt ingezet voor – bijvoorbeeld – het werven of selecteren van natuurlijke personen, dan kan het zijn dat er nog striktere regels gelden.” Floortje vult aan: “Met transparantie maken we het beter voorzienbaar. We zoeken continu naar de balans tussen informatiemoeheid en volledigheid in informatie (in overeenstemming met de wet).”

Risico’s van AI in recruitment

Eerder spraken we al over de zogenaamde bias; het vooroordeel in recruitment. We vroegen Floris en Floortje wat de juridische gevolgen zouden kunnen zijn van gebruik van AI in strijd met de wet. Zijn hier al juridische kaders voor?

Floortje: “De AVG kan hiervoor gelden en biedt een grondslag voor schadevergoeding als de AVG wordt geschonden. Bijvoorbeeld als bij profilering geen passende waarborgen worden geïmplementeerd. Kandidaten moeten dan wel schade aan kunnen tonen, wat bij immateriële schade bijzonder moeilijk kan zijn. Voor een schadevergoeding moet er daadwerkelijk geleden schade zijn.” Floris haakt hierop in: “Als je kunt aantonen dat je ten onrechte een hele goede baan hebt gemist als direct gevolg van het onrechtmatig handelen, dan kun je als kandidaat de juridische discussie over schade aangaan. Maar dat blijft lastig. Bedrijven moeten zich echter wel beseffen, ongeacht de uitkomst van de juridische discussie, dat het enkele feit dat de discussie plaatsvindt negatief kan afstralen op je reputatie. Je wilt niet het bedrijf zijn waarover men roept: ‘Daar wordt gediscrimineerd!’”

AI kan wel helpen bij anonimiseren, door bijvoorbeeld namen en foto’s weg te halen bij de beoordeling van cv’s door mensen. Zo laat je AI het handjeswerk doen, maar laat je de besluitvorming aan de mens. Maar ook hier geldt: als mens kun je niet kiezen voor iemand die je niet voorgesteld krijgt…

Torenhoge boetes vanuit AP

Uit de laatste jaren kennen we verschillende boetes die opgelegd zijn door de AP. Deze lijken steeds hoger te worden: Clearview heeft een boete van € 30,5 miljoen euro gekregen vanwege gebrek aan transparantie over het opstellen van een digitale database met foto’s voor gezichtsherkenning. Maar denk ook aan één van de meest bekende klappers: de Belastingdienst met een boete van € 3,7 miljoen in april 2022, vanwege het jarenlang onrechtmatig verwerken van persoonsgegevens in de Fraude Signalisering Voorziening (een zwarte lijst die zonder wettelijke grondslag gebruikt werd). In de AI ACT zijn de boetes overigens potentieel nog hoger dan vanuit de AVG/AP. Ter vergelijking: waar de AVG inzet op 2%, danwel 4% (afhankelijk van de overtreding) van de jaaromzet, loopt het in de AI ACT van 1 % op tot 7% (afhankelijk van de overtreding)…

Is dit signaalpolitiek? Pakken ze de grote overtreders, in de hoop dat kleinere partijen zich aan de regels houden? Floris: “Dat wordt afwachten. Maar ook wat niet in het nieuws komt of daadwerkelijk leidt tot een grote boete, kan intern tot grote schade leiden. Als er verzoeken, klachten of geschillen anderszins binnenkomen, en er wordt bijvoorbeeld niet adequaat op gereageerd, riskeer je dat er melding wordt gemaakt bij de relevante autoriteit. Dat wil je vermijden. Maar adequaat reageren lijkt soms simpeler dan het is en brengt doorgaans veel kosten met zich mee. Zo kunnen juridische kosten snel oplopen, evenals personeelskosten en/of de inschakeling van andere derden partijen zoals IT-leveranciers. Als het een en ander niet in goed overleg kan worden opgelost en er wel melding wordt gemaakt, dan kan een onderzoek volgen. Als er een inspectie komt, dan wordt vaak méér onder een vergrootglas gelegd. Je kunt een geschil dus beter voor zijn en het een en ander goed ingeregeld hebben.”

Floortje Eijdems - Banning Advocaten - Recruiten met AI
Floris de Vriend - Banning Advocaten - Recruiten met AI

Hoe om te gaan met AI in recruitment

AI is een enorme hype. We noemden het al even de nieuwste glanzende sportauto. Iedereen wil het, maar velen weten niet waarom. Wil je echt AI, of wil je gewoon automatiseren? Bedenk goed waar je aan begint. AI is niet iets dat je zomaar doet voor de buitenkant.

Ten eerste is het goed om het even te hebben over de definitie. Wat is AI dan in verhouding tot Machine Learning en Deep Learning? In wezen omvat AI elke vorm van automatisering met een intelligentie-simulatie, inclusief Machine Learning en Deep Learning. Machine Learning is een subset van AI en Deep Learning is weer een subset van Machine Learning. Zie AI als de filosofie, als het einddoel van intelligente machines. Machine Learning is een weg naar dit einddoel, met het leren van data. Deep Learning is de turbomotor binnen Machine Learning, waarmee door diepe neurale netwerken de versnelling wordt gemaakt. In de praktijk is Deep Learning de technologie achter veel recente doorbraken in AI. Denk hierbij aan gezichtsherkenning, automatische vertaling en geavanceerde chatbots zoals ChatGPT.

Floris geeft aan dat er in de AI ACT consensus is over de definitie van AI. Een AI-systeem is een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen. Een omvangrijke definitie, maar uitleg volgt. “Vanuit de EU is er een AI Office aangesteld, die nu aan het werk is om het nog verder te kaderen. Hier gaan we in de komende maanden al wat meer van horen. Op dit moment zijn ze bijvoorbeeld bezig met het opstellen van richtsnoeren over onder meer de definitie van AI.”

Tips voor het omgaan met AI

Floortje adviseert software-ontwikkelaars om bij de ontwikkeling van een nieuw product rekening te houden met privacy. Privacy by design en by default is immers een AVG-verplichting. Maak bijvoorbeeld privacyvriendelijke opties de standaardinstelling: privacy by default.

Ook voor HR-afdelingen en recruiters hebben de twee experts een aantal waardevolle tips:

  1. Vraag door bij je ATS-leverancier en vertrouw niet blindelings op mooie verhalen. Check de certificeringen! Zo heb je voor informatiebeveiliging de ISO 27001. Claimt een ATS te werken met AI? Vraag dan bijvoorbeeld om de relevante certificeringen op dat gebied, zoals ISO 42001 en ISO 23849; deze managementsystemen zijn specifiek voor AI.
  2. Maak gebruikers bewust van het werken met AI. AI geletterdheid en Security Awareness trainingen zijn hier goed voor en ook geschikt voor kleinere organisaties.
  3. Stel AI beleid op. Wat heb ik in huis en wat zijn de mogelijke gevolgen? Regel hiervoor de commitment vanuit de leidinggevenden.
  4. Stel een AI Compliancy Officer aan. Deze is wat specifieker voor grotere organisatie. Deze functionaris houdt trends in de gaten en verbindt de juiste mensen uit de organisatie aan zich, zoals externe juridisch adviseurs, maar ook intern IT, Legal en soms HR.
  5. Creëer voor privacy en AI intern draagvlak. Als je als HR-afdeling kartrekker bent, betrek dan ook IT en Legal, maar bijvoorbeeld ook Marketing en Administratie. Let op: 100% compliant is lastig, maar probeer er wel naar te streven.

Over het algemeen kunnen we stellen dat als basisregel het adagium van de Romeinse keizer Severus geldt: ‘Wat gij niet wilt dat u geschiedt, doe dat ook een ander niet.’ Met andere woorden: bedenk of jij het fijn zou vinden als iets met jou gebeurt. Zo krijg je de intentie scherp.

Besef je goed dat we ons in de pioniersfase bevinden. Als je aan de slag gaat met AI, ben je soms min of meer een proefkonijn. Vraag jezelf af of je echt deze rol als innovator wil aannemen, of dat je liever afwacht tot er een bewezen oplossing is.

Laat je niet gek maken door de AI trend. Blijf nadenken en blijf nuchter; zo word je geen proefkonijn.

Klaar om je ATS-strategie naar het volgende niveau te tillen? Neem contact op met onze experts bij Recruition en ontdek hoe je compliant blijft in een wereld vol privacy en AI-complexiteit!

Banning Advocaten is actief op alle rechtsgebieden die voor ondernemingen relevant zijn. Met een buitengewoon enthousiast team van circa 46 gespecialiseerde advocaten zijn zij dagelijks werkzaam voor een brede groep van nationale en internationale cliënten. Floris de Vriend en Floortje Eijdems zijn werkzaam in de praktijkgroep IE, IT & Privacy, waar ze zich bezighouden met AVG, IT en gerelateerde technologische gebieden, waaronder AI. Wil je meer weten over juridische contracten, hoe te handelen bij geschillen of compliancy? Neem dan contact op met Floortje Eijdems, Floris de Vriend of één van de andere leden van de sectie IT & technologie van Banning.

Banning Advocaten - Recruiten met AI