La tech dans le recrutement

Le risque discriminant de la technologie dans le recrutement

Plusieurs cas de discrimination au genre et à l’âge ont été dénoncés aux Etats-Unis. Tour d’horizon des risques, des biais possibles et de quelques affaires.

En 2018, le géant de l’e-commerce Amazon a tiré la prise de son outil de sourcing entièrement automatisé, car l’algorithme discriminait les profils féminins. Cette affaire est emblématique de la nature très sensible des outils technologiques appliqués au recrutement. Pour mémoire, Amazon travaillait depuis 2014 sur un algorithme qui devait leur permettre de sélectionner les cinq meilleurs profils sur les centaines de candidatures reçues pour un poste.

En 2015, les ingénieurs d’Amazon se sont rendus compte que la machine avait intégré un biais humain et que les profils masculins étaient systématiquement favorisés. En analysant les données des dix années précédentes, l’algorithme a compris qu’Amazon avait tendance à engager des informaticiens mâles.

Ces risques de discrimination à l’embauche sont nombreux à l’ère des données et des outils technologiques d’aide à la prise de décision. Depuis Internet et les réseaux sociaux, la quantité d’indications que nous laissons sur le Net a explosé. Selon un article du Harward Business Review, 90% de la donnée disponible sur le web a été générée ces trois dernières années. Et la plupart des startups de l’industrie tech ont basé leur modèle économique sur l’exploitation de ces données.

Web scraping

En principe, un employeur n’a pas le droit de demander des informations sur la vie privée des candidats: leur situation familiale (prévoient-ils d’avoir des enfants?), leurs orientations politiques, leur sexualité ou leur état de santé par exemple. Le hic, c’est que ces traces laissées sur Internet donnent pas mal d’indices sur ces questions. Sans demander le consentement des personnes concernées.

Les outils de web scraping vont par exemple construire des profils de personnalités en se basant sur les likes postés sur Facebook, les sites web visités ou la musique et les films consommés en streaming. Des algorithmes sont aussi utilisés pour analyser la voix et le langage non verbal lors d’entretiens vidéo différés.

Opacité

La société américaine HireVue est aussi dans le collimateur de la justice car son algorithme d’assessment en ligne est soupçonné d’utiliser ce type d’informations. Basée dans l’Utah, cette société utilise les interviews vidéo différés pour analyser la voix, le choix des mots et les expressions faciales des candidats.

Le plaignant (The Electronic Privacy Information Center – EPIC) critique aussi l’opacité de l’outil de HireVue. C’est l’autre problème de ces outils de deep learning. Même les ingénieurs qui les développent sont incapables d’expliquer comment ces algorithmes (auto-apprenants) arrivent à leurs conclusions.

Age et ciblage

Des discriminations par l’âge ont été dénoncées récemment par le New York Times dans une série d’articles. Le site Propublica a montré comment plusieurs sociétés américaines (Verizon, UPS ou The Quest Group) postent des offres d’emploi sur Facebook en ciblant les profils de 25 à 36 ans.

Un chercheur d’emploi de 40+ ne verra donc pas apparaître ces annonces dans son fil d’actualité. Ce ciblage des publics cibles fait d’ailleurs partie du modèle d’affaire de Facebook dont l’algorithme est en mesure de filtrer les annonces que vous voyez en fonction de votre âge, de votre genre et de votre numéro postal par exemple.

commenter 0 commentaires HR Cosmos

Marc Benninger est le rédacteur en chef de la version française de HR Today depuis 2006.

Plus d'articles de Marc Benninger

Cela peut vous intéresser