Winkelmand

Geen producten in de winkelwagen.

Nieuwe Europese AI Act: ‘Bedrijven beseffen niet wat de impact is voor recruitment’

De meeste organisaties maken gebruik van AI-tools voor hun recruitment. Maar de impact hierop van nieuwe Europese AI Act is enorm. 'Bedrijven hebben dat nog niet op hun netvlies staan.'

ai act verordening eu
Foto: Getty Images

HR-professionals zullen ervan opkijken, maar de softwaretools die ze al tientallen jaren gebruiken voor hun recruitment worden door Europa als een hoog risico beschouwd. Met de nieuwe AI Act die naar verwachting eind dit jaar rond is, komen er strenge regels voor deze tools.

Wat is er mis met de huidige HR-systemen?

Met deze regels wil Europa de negatieve impact van AI uit de systemen filteren. Voor HR gaat het onder meer over het bestrijden van bias en het uitsluiten van groepen. Harvard-prof Joseph B. Fuller heeft die discriminatie al uitgebreid onderzocht.

AI-systemen die werken op bepaalde zoekwoorden in cv’s en sollicitatiebrieven, sluiten niet alleen mensen van kleur uit. Dat doen ze ook met mantelzorgers, mensen met een beperking, mensen met een andere nationaliteit, mensen zonder universitaire opleiding en mensen met gaten in hun loopbaan.

‘Bedrijven investeren niet voldoende in de mensen die vandaag nog geen deel uitmaken van de technologische zoektocht’, zegt Eve Logunova tegen MT/Sprout. De founder van de in Amsterdam en VS gevestigde startup Evenness is één van de vrouwelijke pioniers in de wereldwijde AI-community.

Filters instellen

‘Kandidaten concurreren niet langer met elkaar voor een baan, maar met machines. Stuurt de machine hun cv door of niet?’ Ze wijst op filters die nog uitgaan van historische data vol fouten, op filters die niet ingesteld zijn op passies, soft skills, culturele fit of een sabbatical.

‘Een kandidaat met minder ervaring maar met veel potentie kan bijvoorbeeld een link meesturen naar zijn of haar portfolio, maar de huidige veelgebruikte systemen kunnen die link niet eens openen. En dus raakt die kandidaat niet door de selectie, terwijl het misschien wel de beste kandidaat is.’

Lees ook: De beste kandidaat voor een functie is zelden degene met het sterkste cv

Kunnen deze systemen worden aangepast?

Logunova vindt de regulering een goede zaak, maar… ‘Als je risico’s met AI wil voorkomen, dan moet je van tevoren elk scenario bedenken waarin het fout kan gaan en welke impact dat heeft op mensen.’

‘Het uitsluiten van bepaalde groepen voor een baan, is een bekend effect. Maar dat dit kon gebeuren is nooit meegenomen in de eerste datasets.’

Herstellen wat al gebouwd is, zal niet leiden tot een efficiënter werkend scenario

De huidige systemen kunnen wel worden gefikst. ‘Maar het aanpassen van algoritmes, het bijhouden en het opruimen van datasets vraagt een forse investering. Bedrijven moeten daar mensen voor inhuren, ze moeten er ethische standaarden en checklists voor opstellen en ze moeten een serieuze benchmark creëren.’

Logunova ziet dat nog niet gebeuren tegen 2026. Een nieuw systeem bouwen gebaseerd op een correcte weergave van de bevolking is volgens haar gemakkelijker. ‘Maar de beweging die ik nu zie is dat we proberen te herstellen wat er al gebouwd is. En dat zal niet leiden tot een efficiënter werkend scenario.’

Wat is de impact voor werkgevers?

Wat mag van Europa straks niet langer zomaar worden gebruikt? Systemen die cv’s selecteren en screenen, geautomatiseerde feedback apps, (video)gesprekken met chatbots of het voorstellen kandidaten voor promoties. Alleen systemen met een CE-markering komen nog in aanmerking.

Wie met ouwe of niet geüpdatete meuk blijft werken, loopt het risico op fikse boetes: tot 30 miljoen euro of 6 procent van de jaaromzet. En dat geldt voor zowel de gebruikers als voor de makers van die AI-tools. De impact van die wet wordt voelbaar vanaf 2025, maar serieus voor alle organisaties vanaf 2026.

‘Werkgevers die AI-tools gebruiken in de arbeidscontext moeten een heel proces gaan optuigen om na te gaan of die tools aan de eisen voldoen’, zegt arbeidsrechtadvocate Johanne Boelhouwer en partner bij Dentons, tegen MT/Sprout. ‘Bedrijven hebben dit absoluut nog niet op hun netvlies staan.’

Monitoren verplicht

Voor de makers van de AI-systemen gaat het onder meer over registratie, transparantie, een conformiteitsbeoordeling en een certificering voor het bekende CE-label. Voor werkgevers gaat het over zich ervan verzekeren dat hun softwareleverancier aan de wettelijke eisen voldoet.

‘Werkgevers zouden geen systemen moeten gebruiken die deze beoordeling niet hebben doorstaan. Ze doen er ook goed aan om het systeem te gebruiken volgens de gebruiksaanwijzing die de leverancier afgeeft.’

Bedrijven zullen continu een oogje in het zeil moeten houden, want AI-systemen zijn zelflerend

‘Werkgevers moeten het systeem dus monitoren. Ze zijn zelfs verplicht om de logs te bewaren die worden gegenereerd. Ze zullen er dus een aantal administratieve verplichtingen bijkrijgen.’

Voor wie nu al keihard zit te zuchten, het idee achter die AI Act is positief. HR-tools moeten zo echt gaan bijdragen aan meer diversiteit bij bedrijven, en dit op alle niveaus. Wordt ontdekt dat zo’n systeem vooroordelen bevestigt of versterkt, dan moet het worden aangepast.

Bedrijven zullen hiervoor continu een oogje in het zeil moeten houden, weet Boelhouwer. ‘AI-systemen zijn zelflerend. Als je een vacature hebt voor taxichauffeur en daar reageren in eerste instantie alleen mannen op van middelbare leeftijd, dan zal AI voortaan dat soort cv’s naar voren halen. Dat moet worden gemeld bij de leverancier van het systeem én worden gecorrigeerd.’

Lees ook: Dit is de superkracht van mensen in een tijdperk vol AI

Zijn er al standaarden of certificaten?

Leveranciers van AI-systemen voor HR doen voor onafhankelijke audits en certificering nu vooral een beroep op startups. Maar het is onduidelijk waar startups die systemen op beoordelen en waarmee ze die vergelijken. Er is namelijk nog geen uniforme standaard.

Een van de grondleggers van de ISO-certificeringen, BSI, brengt op dit moment die partijen bijeen om standaarden af te spreken. Dénelise L’Ecluse is managing director Europa voor BSI, dat onder meer keuringen voor het CE-label verzorgt.

BSI wil ook die rol gaan vervullen voor de nieuwe AI Act, de voorbereidingen hiervoor zijn al in volle gang, vertelt ze vanuit Amsterdam tegen MT/Sprout. ‘Maar er is wel een inhaalslag te maken van zo’n tien tot twintig jaar.’

Voor technologie moest het altijd snel vooruitgaan, dus is er nog niets aan regulering gedaan

‘We vertrouwen erop dat de overheid voor de regels en de inspectie zorgt. Dat gebeurt allemaal op de achtergrond, maar we zijn dat gewend. Daarom denken we dat dit ook voor HR-software geldt. Dat is niet zo.’

‘Voor technologie moest het altijd snel vooruitgaan, dus is er nog niets aan regulering gedaan. Nu raken mensen in paniek over AI. Ze vrezen voor hun baan, voor de toekomst van de mensheid. Dus wordt er meer publieke druk uitgeoefend naar overheden.’

Zorgt regulering voor meer inclusie en diversiteit?

L’Ecluse wijst erop dat AI niet bevooroordeeld is, maar de mens. ‘Alleen wordt dat versterkt door de technologie. In HR-systemen zit de bias van de programmeur, van de data en van de maatschappij.’

‘De ontwikkelaars behoren tot een heel homogene groep, daar zit weinig diversiteit in. Daar komt dus automatisch bias vandaan. De eerste AI-systemen werkten op kleine datasets en die historische data bevatten veel biases.’

‘De grotere modellen, de foundation of language models, gebruiken alle vormen van data. Dus ook video’s, foto’s, boeken, noem maar op. Maar daar zit die bias van de maatschappij ook nog altijd in’, legt ze uit.

Het is niet omdat je technologie installeert dat je als organisatie geen vooroordelen meer hebt

Met de AI Act kunnen HR-systemen worden ontworpen die juist heel bewust met vooroordelen omgaan. Daarmee kan AI ook grote groepen vooruithelpen, geeft L’Ecluse aan. ‘Je krijgt explainable AI, dat moet verklaren hoe het tot bepaalde beslissingen is gekomen.’

‘Dat dwingt bedrijven om het wat rustiger aan te doen in de concurrentieslag, om transparanter te worden, en meer te gaan ontwikkelen met het oog op biases. Zo komen er regels die mensen beschermen, en kan AI worden ingezet for good.’

Dagelijks de nieuwsbrief van Management & Leiderschap ontvangen?



Door je in te schrijven ga je akkoord met de algemene en privacyvoorwaarden.

‘Natuurlijk is dat niet van de ene op de andere dag klaar. We zitten in een enorme shift, maar het begint bij bewustzijn. We moeten bovendien beseffen dat technologie niet de oplossing is voor dit probleem. Het is niet omdat je technologie installeert dat je morgen als organisatie geen vooroordelen meer hebt. Dat is een utopie.’

Lees ook: Ethische AI is een tool voor business