Uw personeel is te belangrijk om met een recruitmentalgoritme te selecteren

FD
Deel dit:

Bron: FD Opinie | Siri Beerends is cultuursocioloog en werkzaam bij medialab Setup / foto: Getty Images / Vetta

Bedrijven hebben tegenwoordig wel wat beters te doen dan afgezaagde motivatiebrieven lezen. Het selecteren van een geschikte kandidaat wordt steeds vaker uitbesteed aan een algoritme. De recruitmentsoftware-industrie is een groeimarkt.

Een van de koplopers in deze markt is het miljoenenbedrijf Hirevue, met klanten zoals Unilever en Goldman Sachs. De algoritmen van Hirevue beoordelen videosollicitaties op woordkeuze, stemklank en micro-expressies, die onze ‘ware’ emoties enpersoonlijkheid zouden verraden. Als we hun marketingsprookje moeten geloven, selecteren algoritmen de juiste kandidaat op een neutrale en eerlijke manier. Een algoritmische screening zou sollicitanten bevrijden van discriminerende werkgevers die op basis van onderbuikgevoelens personeel aannemen.

Bedrijven die de boodschap verkopen dat technologie neutraal is, maken een beoordelingsfout. Dat een algoritme elk individu op dezelfde manier beoordeelt, betekent niet dat dit ook op een neutrale manier gebeurt. Integendeel, sommige algoritmen zijn juist consistent in het discrimineren van mensen. Politiek wetenschapper Virginia Eubanks beschrijft in haar boek Automating Inequality hoe lagere sociaal-economische klassen stelselmatig door algoritmen worden benadeeld, omdat er over hen meer data beschikbaar zijn waarmee overheden en bedrijven hen surveilleren, profileren en uitsluiten.

Recruitment

Je verliest menselijke kwaliteiten uit het oog als je gedrag reduceert tot wiskundige formules

Tech-ondernemer Jim Stolze schreef vorige maand in het FD dat de bias die we algoritmen kwalijk nemen, voortkomt uit onze eigen vooroordelen. Hij noemt algoritmen, terecht, een ongemakkelijk spiegelbeeld. Vervolgens slaat hij de plank mis door de kritiek op algoritmen samen te vatten als ‘boos worden op een spiegel omdat je haar niet goed zit’. Dat is een slechte vergelijking, want algoritmen reflecteren niet alleen onze vooroordelen en ongelijkheden, ze leggen deze vast in systemen waardoor ze op een veel grotere schaal worden verspreid.

De oplossing lijkt simpel: we moeten ‘goede’ waarden in het algoritme programmeren door gevarieerde datasets te gebruiken en de juiste variabelen op de goede manier wegen. Maar zelfs als dat lukt, lossen we het werkelijke probleem niet op. Het probleem is namelijk dat veel aspecten van menselijk gedrag überhaupt niet in een algoritmisch model passen.

Algoritmen zijn goed in rigide taken zoals schaken en Go. Maar mensen zijn minder rechtlijnig dan een schaakbord of een spelletje Go. Een recruitmentalgoritme destilleert een persoonlijkheidsprofiel uit woorden, stemklanken en gezichtsuitdrukkingen, terwijl taal en emotie te gelaagd en cultuurafhankelijk zijn om te kwantificeren, categoriseren en beoordelen met één vastomlijnd model.

Wanneer je een bedrijf zoals Hirevue vraagt naar de werking van hun algoritmische model, beroepen zij zich op geheimhouding vanwege hun intellectueel-eigendomsrecht. Wie toch wil weten hoe deze technologie werkt, hoeft gelukkig niet in het duister te tasten, dankzij ontwerper Isabel Mager. Zij ontwikkelde samen met medialab Setup een open-sourcevariant van de algoritmische Hirevue-sollicitatie. Daarmee maakt zij de blackbox achter deze technologie transparanter, zodat sollicitanten meer autonomie krijgen.

Het recruitmentalgoritme werd op diverse festivals door een kritisch publiek uitgeprobeerd: herkende deze technologie een neplach? Discrimineerde het algoritme op andere punten dan huidskleur? Hoe reageerde de gezichtsanalyse op een hazenlip, Gilles de la Tourette of hangende oogleden? Aan het einde van elke sollicitatie rolde een bonnetje uit de computer met een rijtje getallen en de mededeling of deze persoon wel of niet goed bij een bepaald bedrijf zou passen. Dat rijtje getallen moet het selectieproces voor werkgevers efficiënter maken, maar uiteindelijk zeggen deze cijfers net zoveel over iemands persoonlijkheid als een horoscoop. En dan moeten de getallen ook nog eens geïnterpreteerd worden door hr-afdelingen die de rekenmodellen achter deze algoritmen amper begrijpen.

Meten staat in de praktijk niet altijd gelijk aan weten. Algoritmen hebben geen bewustzijn, creativiteit en redenerend vermogen. Ze zijn niet in staat ­intuïtief sociale en emotionele contexten te begrijpen, terwijl deze kwaliteiten juist belangrijk zijn om kandidaten te selecteren. Werkgevers moeten zich dus goed achter de oren krabben voordat zij hun selectieproces baseren op een recruitmentalgoritme. Door menselijk gedrag te reduceren tot algoritmische formules en alleen het meetbare prioriteit te geven, verliezen zij diversiteit en menselijke kwaliteiten uit het oog.

Siri Beerends is cultuursocioloog en werkzaam bij medialab Setup.