Catégories
Emplois et recrutements

Pourquoi les entretiens virtuels n'éliminent pas les préjugés> Actualités sur l'approvisionnement et le recrutement

Pourquoi les entretiens virtuels n'éliminent pas les préjugés

Bien que les entretiens virtuels existent depuis un certain temps, la pandémie actuelle a causé demande sans précédent pour des réunions et des interactions vidéo, y compris des entretiens d'embauche. Il est facile de voir comment cette séquence inattendue d'événements dramatiques (c'est-à-dire un virus, une pandémie, une distanciation sociale et, pour ceux qui ont la chance de conserver leur emploi, travailler à domicile) peut entraîner une poussée à long terme adoption d'outils de recrutement numériques, augmentation de l'efficacité des entretiens et modernisation d'une pratique plutôt dépassée.

Cela dit, il serait naïf de s'attendre à ce que l'adoption généralisée des entretiens virtuels se traduise par de meilleures pratiques de recrutement. Des entretiens d'embauche plus rapides, moins chers et plus pratiques n'équivalent pas à des décisions d'embauche plus précises, à moins que les recruteurs humains n'aient la capacité de se retirer du processus d'évaluation et de notation des entretiens réels.

Certes, certains recruteurs sont extrêmement astucieux pour faire des déductions intelligentes sur le talent et le potentiel des candidats, et il en va de même pour un petit pourcentage de responsables du recrutement. Mais pour chacun de ces non-conformistes intuitifs aux instincts d'observation exceptionnels, il y a probablement 100 qui sont beaucoup plus incompétents et biaisés mais pense ils sont aussi bons.

Rendre les entretiens d'embauche plus utiles

En bref, la principale opportunité de rendre les entretiens d'embauche plus utiles n'est pas de faire des ajustements au processus d'entrevue ou à l'expérience du candidat, mais de debias le processus d'évaluation des entretiens. Puisqu'il n'est pas possible de reproduire les jugements intuitifs de ceux qui sont naturellement doués pour lire les gens – vous ne pouvez pas cloner un expert ou faire de l'ingénierie inverse de leur expérience – cela est mieux fait grâce à la technologie, telle que l'IA.

Après tout, le principal avantage des entretiens virtuels par rapport aux entretiens analogiques est qu'ils génèrent de grandes quantités de données, notre objectif principal devrait donc être de traduire ces données en informations prédictives.

Curieusement, les candidats, les employeurs et le grand public semblent réticents à accepter qu'un algorithme puisse détecter certains marqueurs de potentiel (ou signaux de talent) à partir d'une performance d'entrevue. Pourtant, c'est exactement ce que les intervieweurs humains essaient de faire lorsqu'ils examinent les candidats à l'entrevue. Malheureusement, de nombreuses preuves suggèrent que le le recruteur moyen n'est pas particulièrement doué pour cela, pour commencer.

Premières impressions

Premièrement, nous savons que les humains font très inférences rapides des autres – même après quelques minutes d'interaction – et que nous sommes rarement désireux de changer nos premières impressions sur les autres, même lorsqu'on leur présente des preuves claires que nous nous sommes trompés.

Deuxièmement, la plupart des dimensions critiques du talent – les attributs ou les compétences qui rendent quelqu'un différent des autres et un excellent candidat pour la plupart des emplois – ne sont pas directement observables, ce sont pourtant les choses mêmes que nous essayons de discerner dans les interviews. Par exemple, comment pouvez-vous déterminer objectivement si quelqu'un a un haut niveau de curiosité, d'intégrité ou de pensée critique? Alors que les recruteurs sont chargés de trouver des personnes qui ont ces talents, il existe de nombreux autres outils disponibles qui peuvent faire ce travail beaucoup mieux que les humains.

Par exemple, les diagnostics psychométriques alimentés par l'IA peuvent fournir des informations précises et sans biais, des informations sur son talent à une fraction du temps et du coût des entretiens (si vous disposez de 5 minutes, vous pouvez en essayer une ici).

Troisièmement, s'il existe vraiment une formule pour relier ce que les gens disent et font lors d'un entretien avec leur talent ou leur potentiel (qui, nous savons, peut être fait en corrélant les données d'entrevue avec les futurs indicateurs de performance), alors qu'est-ce qui nous fait penser que les humains seront meilleurs pour identifier ces modèles que l'IA? Un algorithme n'est qu'une formule, une recette pour identifier des modèles dans les données, et l'IA peut le faire à grande échelle.

Les humains, en revanche, peuvent réussir à saisir un ou deux modèles (par exemple, plus de contact visuel = confiance ou fiabilité, moins de mouvements corporels = stabilité émotionnelle, plus de questions = curiosité) et plutôt imparfaitement. La raison principale n'est pas un manque de formation ou de préparation pour repérer les signaux clés, mais notre incapacité totale à ignorer les signaux non pertinents (par exemple, le sexe, l'âge, la race et l'attrait).

L'IA peut imiter le biais

En fait, malgré tous les discours sur l'IA étant biaisé, il n'est pas possible qu'un algorithme généré par ordinateur soit biaisé comme le sont les humains. Les ordinateurs n’ont pas une estime de soi fragile, ils ont besoin de gonfler en faisant tomber d’autres personnes (peut-être des ordinateurs?). Ils ne généralisent pas non plus par des catégorisations, déductions ou inductions fausses ou biaisées.

Les ordinateurs n'ont pas besoin de formation sur les préjugés inconscients, car ils n'ont pas de préjugés inconscients. Ils n'ont pas non plus de conscience – ils ne font que traiter des données. Bien sûr, leurs algorithmes ne sont aussi précis que les données qu'ils reçoivent, et nous devrions nous inquiéter de surveiller cela.

Garbage in, garbage out est un vieil adage dans les statistiques pour nous rappeler que la qualité des données, en tant qu'ingrédient brut nécessaire à l'IA, est essentielle. C'est pourquoi, lorsque l'IA a été formée pour prédire des résultats biaisés, elle a non seulement imité mais aussi biais humains augmentés.

Par exemple, vous pouvez facilement former un modèle d'apprentissage automatique pour prédire qui est susceptible d'être promu dans une organisation. Si la réponse habituelle est «hommes blancs d'âge moyen», elle sera extrêmement efficace pour déterminer si quelqu'un entre ou non dans cette catégorie et discriminer toute autre personne.

Un petit détail qui est souvent négligé, cependant, est qu'un tel algorithme exposerait simplement un modèle qui existe déjà dans le système. De toute évidence, nous pouvons nous plaindre du biais de l'algorithme, mais si nous arrêtons de l'utiliser, les hommes blancs d'âge moyen sont toujours promus, comme ils l'étaient avant de commencer à utiliser l'algorithme.

Il est donc quelque peu ironique que nous accusions rapidement les algorithmes de biais qui ne sont que des biais humains. Au lieu d'apprécier le fait que la technologie peut être utilisée non seulement pour détecter, mais aussi combattre, les préjugés humains. Nous devrions sûrement être prêts à accepter un algorithme d'IA que nous pouvons tester, surveiller et réduire son biais, par rapport aux humains intrinsèquement biaisés qui résistent au changement.

Plus facile à dire qu'à faire

Ceci, bien sûr, est plus facile à dire qu'à faire (ce qui est vrai pour tout). Sans données de performance objectives – des données qui reflètent vraiment la contribution des employés à l'organisation et où ils se classent dans le vivier de talents global – il est très difficile d'exploiter le pouvoir prédictif de l'IA. Et dans certains cas, même des marqueurs apparemment objectifs de la performance des gens peuvent contenir des biais. Un parti pris qui existe dans la société plutôt que dans l'organisation.

Par exemple, les personnes attractives – et nous pouvons définir attractives selon certaines normes culturelles relativement arbitraires – auront tendance à surpassent leurs pairs. Devrions-nous donc embaucher des personnes en fonction de leur apparence?

De la même façon, même si le monde des talents est plus méritocratique et moins népotiste qu'il y a, disons, 100 ans, la classe sociale prédit toujours l'avancement professionnel. Cela signifie-t-il que nous devrions former l'IA à sélectionner ou à ignorer la classe sociale? Ce sont des questions éthiques complexes qui nécessitent une assez bonne compréhension de la science et de la technologie. La réponse à ces questions n'est pas simple.

Un bon point de départ est d'avoir l'humilité et l'autocritique nécessaires pour reconnaître le double standard dominant en matière d'interview virtuelle en ce moment: nous sommes hyper-critiques et sceptiques à l'égard de l'IA, mais semblons avoir des normes très basses lorsque nous jugeons la partie humaine de la équation.

C'est un peu comme lorsqu'une voiture autonome s'écrase lors d'un exercice pilote. Nous concluons très rapidement qu'il faut arrêter de nourrir l'idée des voitures sans conducteur. Pourtant, dans le même temps, des millions de personnes meurent chaque année des suites d’accidents mortels en voiture, et c’est normal.

Il ne fait aucun doute que l'IA est toujours en cours de développement. L'humanité, par contre…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *