Winkelmand

Geen producten in de winkelwagen.

De juiste kandidaat? Mens en AI kunnen het maar moeilijk eens worden

Mensen en AI liggen niet bepaald op één lijn als het aankomt op het selecteren van de juiste kandidaat. En eerlijkheid blijkt een vloeibaar begrip.

Foto: Markus Spiske / Unsplash

Kunstmatige intelligentie is dé oplossing voor eerlijke selectieprocessen. Toch? VU-promovenda Elmira van den Broek maakt korte metten met die belofte, nadat ze voor haar promotieonderzoek twee jaar lang een kijkje achter de schermen mocht nemen bij een grote multinational.

Van den Broek, verbonden aan het KIN Center for Digital Innovation aan de Vrije Universiteit Amsterdam, onderzocht hoe de implementatie van een AI-gedreven selectietool in praktijk verliep. Zij schoof hiervoor aan bij meer dan honderd meetings. De vraag waarop zij een antwoord wilde: hoe beïnvloedt de nieuwe technologie eerlijkheid in het selectieproces van ruim 10.000 kandidaten?

De tool

Algoritmes berekenen in hoeverre de persoonlijkheid en vaardigheden van een kandidaat overeenkomen met succesvolle medewerkers. De uitkomst is een AI-gedreven match-score voor iedere kandidaat. Het idee: een eerlijkere selectie van kandidaten.

Wat onder eerlijk wordt verstaan veranderde op het moment dat HR met AI aan de slag ging

Maar wat is eerlijk? Uit het onderzoek blijkt dat het een vloeibaar begrip is. Gedurende het onderzoek veranderde wat onder eerlijk wordt verstaan op het moment dat HR, managers en ontwikkelaars met AI in de praktijk aan de slag gingen. Het onderstreept nog eens de uitdaging aan van inbouwen van eerlijkheid in AI, ziet Van den Broek.

Een voorbeeld: ‘Dan maakt het algoritme het mogelijk om sollicitanten op vertoning van exact dezelfde eigenschappen te selecteren, maar maken managers zich zorgen over een gebrek aan diversiteit in persoonlijkheid. Je wilt niet enkel extraverte leiders in je team hebben. Als gevolg wordt de eerlijkheid van het algoritme ter discussie gesteld en worden de selectiecriteria of de gewichten ervan heronderhandeld tussen de verschillende partijen.’

Oneens

Menselijke beoordelaars en AI zaten niet bepaald op één lijn, bleek halverwege het onderzoek. Kandidaten die AI als zeer geschikt naar voren schoof, werden vervolgens door HR af geserveerd: niet geschikt. En dat zorgde soms voor vuurwerk. De AI-ontwikkelaars sloegen de HR professionals met analytics om de oren, als belangrijkste argument voor een beslissing. Maar dat blijkt te kort door de bocht, de domeinkennis van HR professionals is cruciaal, concludeert Van den Broek. ‘HR moet de organisatie mee krijgen en de matchscores vertalen naar begrijpelijke inzichten voor managers.’

Wekelijks de nieuwsbrief van Startups & Scaleups ontvangen?



Door je in te schrijven ga je akkoord met de algemene en privacyvoorwaarden.

Lessen voor HR

  1. Domeinkennis van HR, zoals kennis van complementaire persoonlijkheden en groepsdynamiek, is belangrijk is om het algoritme eerlijk te maken. Wees actief in de ontwikkeling ervan.
  2. Besef dat meerdere partijen in de organisatie verschillende ideeën hebben over eerlijkheid. Neem de tijd om daarover op één lijn te komen.
  3. Wees kritisch op een aanbieder of ontwikkelaar die zegt dat AI-technologie direct van de plank eerlijker is.
  4. Een matchscore is niet zaligmakend. Leer begrijpen wat de uitkomst van AI inhoudt en welke waarde je eraan moet geven in je selectiebeslissingen.

Uiteindelijk heeft de organisatie in het onderzoek van Van den Broek de inzet van AI als succesvol bestempeld, maar maakt het er nu op een andere manier gebruik van. De matchscores die de tool bepaald zijn niet langer maatgevend, maar worden gezien als een bron van extra informatie. ‘Individuele succescriteria zijn belangrijk, maar iemand moet ook passen binnen het team.’