Une organisation qui fait appel à l’IA pour sélectionner des profils et recruter ne sera perçue comme innovante et attractive que par les candidats qui jugent cette pratique éthique. Une opinion publiée sur les pages de La Tribune par Maria Figueroa-Armijos, EDHEC Business School et Serge da Motta Veiga, Neoma Business School
L’intelligence artificielle (IA) transforme le secteur de la gestion des ressources humaines plus rapidement que nous ne l’imaginons. Soixante-cinq pour cent des organisations utilisent déjà des outils basés sur l’IA dans les processus de recrutement. Seulement un tiers des candidats pourtant pensent que l’IA est utilisée pour analyser leur profil.
En matière de recrutement, les outils fondés sur l’IA ont la capacité de collecter de grandes quantités de données au sein d’une entreprise ou d’une institution afin de rechercher, d’identifier, d’évaluer, de classer et de sélectionner les candidats à un poste. Ils peuvent systématiquement recueillir des informations sur les besoins en matière de recrutement au sein des équipes, générer des offres d’emploi avec les caractéristiques des candidats modèles pour pourvoir ces postes vacants, et repérer rapidement les candidats adéquats à partir de diverses plates-formes numériques.
Dès le départ, les outils fondés sur l’IA promettaient davantage d’efficacité dans le traitement d’un grand nombre de documents provenant des candidats. Les concepteurs affirmaient également pouvoir réduire les biais décisionnels des personnes travaillant aux ressources humaines qui pourraient, intentionnellement ou non, discriminer ou traiter injustement certaines des candidatures.
De nouvelles analyses suggèrent toutefois que cela n’est pas toujours le cas. Des algorithmes discriminent encore certains candidats qui peuvent ne pas correspondre au modèle historique de la description d’un poste. Sont parfois exclus les femmes (notamment dans les domaines « STIM – science, technologie, ingénierie et mathématiques ») ou ceux qui ont des lacunes dans leur CV en raison d’une maladie, d’un handicap, de la prise en charge d’un membre de la famille, du chômage ou d’une peine de prison.
Plusieurs grandes entreprises, dont Apple, IBM et Microsoft, ont été mises en cause pour des manquements à l’éthique dans l’utilisation de l’IA, notamment en ce qui concerne la discrimination fondée sur le genre. Même si ces cas d’outils biaisés involontairement ont été corrigés, d’autres biais non détectés peuvent continuer à sévir.
Apparaître comme éthique rend attractif
Le marché des technologies liées aux ressources humaines devrait atteindre près de 40 milliards de dollars d’ici 2029, l’IA étant au premier plan de ces technologies visant à accroître l’efficacité et la rentabilité. Près de 80 % des recruteurs pensent que les humains ne seront bientôt plus nécessaires dans le processus d’embauche.
Mais que pensent les candidats de pareils outils ? Font-ils confiance aux organisations qui les utilisent pour le recrutement ? Nous avons abordé ces questions dans deux publications récentes du prestigieux Journal of Business Ethics. Nous y avons cherché à comprendre les perceptions individuelles quant à l’éthique de l’utilisation de l’IA à travers toute la gamme de méthodes utilisées dans le processus de recrutement. En particulier, nous avons cherché à savoir si l’utilisation de l’IA dans le processus de recrutement influence la confiance que les demandeurs d’emploi et les personnes ayant une expérience du recrutement accordent aux organisations qui utilisent des outils d’IA, et s’ils considèrent ces organisations comme attractives et innovantes. Cela, à notre connaissance, restait peu étudié.
Protéger la vie privée d’abord
Dans le premier de nos travaux, nous avons constaté que les candidats qui perçoivent l’IA dans le processus d’embauche comme très efficace sont plus susceptibles de faire confiance aux organisations qui l’utilisent. Considérer une IA comme efficace, c’est par exemple penser qu’elle a la capacité de vérifier si leur CV correspond bien à la description du poste.
Il y a toutefois des limites à cela. Si les organisations utilisent des outils fondés sur l’IA pour des méthodes de recrutement plus intrusives, telle qu’analyser l’activité des candidats sur les médias sociaux pour y déceler des traits de caractère ou encore examiner minutieusement des comportements non verbaux lors d’un entretien vidéo, la confiance accordée par les individus envers l’organisation va décroissant. Dans ce dernier cas, l’efficacité et l’optimisation précédemment accordées à l’IA passent au second plan, derrière l’importance de la protection de la vie privée.