Amazon zet AI-aanwervingstool stop op grond van discriminatie
Toch dient die vooringenomenheid met een korreltje zout genomen te worden. AI-systemen leren op basis van historische data die vaak reeds bestaande vooroordelen bevestigen. In dit geval ging het daarbij om de mannelijk georiënteerde werkomgeving van de technologiewereld. Volgens Reuters strafte het Amazon-algoritme woorden in de CV van vrouwelijke kandidaten af die expliciet het woord ‘vrouw’ bevatten, zoals bijvoorbeeld ‘vrouwenvereniging’.
Wanneer de e-commercegigant zich ervan vergewiste dat de software geen genderneutrale resultaten voortbracht, werd het algoritme aangepast. Het was echter onduidelijk of er met die aanpassingen geen andere bias in de software was geslopen. Amazon wilde het risico (en de vele schadeclaims) liever niet erbij nemen en besloot om de software in zijn geheel stop te zetten.
Hoewel het rapport van Reuters aangeeft dat het programma enkel een experiment was, is het tot vandaag onduidelijk of de software ooit werd aangewend om echte kandidaten te screenen voor een job bij Amazon.
AI wordt steeds vaker gebruikt om een zekere objectiviteit te garanderen in het aanwervingsproces. Toch halen critici aan dat je zelfs bij AI-aanwervingstools bias ten opzichte van een bepaalde groep kandidaten makkelijk in je algoritme kan programmeren door de data waarop je je baseert.
Amazon blijft echter geloven in een geautomatiseerde aanwervingsprocedure en zoekt ondertussen naarstig verder naar een AI-aanwervingstool, ditmaal met de focus op diversiteit.