Big et smart data

«L’opacité autour des données et des processus me préoccupe»

Professeur d’informatique à l’Université de Fribourg, Philippe Cudré-Mauroux est un des experts suisses du Big Data et de l’Intelligence Artificielle (IA). Il explique ici les grands enjeux à venir pour la fonction RH.

La fonction RH a pris du retard en termes de Big Data et d’intelligence artificielle. Comment l’expliquez-vous?

Philippe Cudré-Mauroux: Ce retard s’explique notamment par la complexité des enjeux RH. Les données commencent à être disponibles, mais le traitement de celles-ci et le déploiement de l’intelligence artificielle pour aider le manager RH dans ses tâches prendront encore du temps.

Avez-vous un exemple pour illustrer cette difficulté à appliquer l’IA aux ressources humaines?

Récemment, le géant Amazon a admis qu’il n’utilisait plus l’intelligence artificielle dans ses recrutements. La société avait développé un assistant qui leur permettait de trier les CV. Mais ils se sont rendus compte que la machine renforçait un biais à l’encontre des candidatures féminines... Cela va donc encore prendre du temps pour voir apparaître des assistants IA qui tiennent la route. Cela dit, l’IA est bien le futur des RH à mon avis.

Expliquez-nous la difficulté majeure que l’IA devra surmonter avant d’entrer dans le domaine RH?

99% des Suisses ne comprennent pas ce que sont le Big Data et l’intelligence artificielle. En réalité, il n’y a rien de magique dans cette technologie. Concrètement, il s’agit de réseaux de neurones qui sont capables aujourd’hui de combiner une grande puissance de calcul avec une grande quantité de données. Le terme technique est deep learning. En clair, nous sommes capables d’alimenter un réseau de neurones avec d’énormes quantités de données et d’entraîner un modèle prédictif généralisant un grand nombre de cas connus.

Un exemple?

Pour reprendre le cas d’Amazon, ils ont alimenté leur réseau de neurones avec des dizaines de milliers de candidatures et ont indiqué quelles candidatures avaient été sélectionnées par les recruteurs d’Amazon. Puis, ils ont entraîné un modèle pour prédire quels CVs devraient être shortlistés. Mais ce procédé exige une énorme quantité de données, afin d’atteindre un modèle fiable. Et seule une poignée de sociétés sur la planète possède et l’infrastructure technique et les données nécessaires pour mettre en œuvre ces techniques. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon, et Microsoft) ainsi que quelques acteurs chinois.

Et comme mentionné plus haut, il y a le risque des données biaisées...

Oui, absolument. Permettez-moi ici aussi encore une explication. Ces réseaux de neurones sont appelés des boîtes noires. Pour fonctionner, elles ont besoin de données et de labels. Un label est une indication sur la donnée, par exemple «a été engagé» ou «n’a pas été engagé». Mais les chercheurs n’arrivent pas à déterminer les critères précis utilisés par le modèle pour décider si «oui» ou «non» un candidat doit être retenu. Car ces modèles sont si complexes, avec des milliers de variables, qu’un être humain n’est pas en mesure de comprendre en détail quels critères influencent la prédiction. Aujourd’hui, personne n’est capable de décrypter l’intégralité de ces modèles et on assiste à un cycle infernal, où le modèle va reprendre certains biais introduits par les données et va grossir le trait. C’est ce qui s’est passé dans le cas d’Amazon.

Quelle sera la solution pour supprimer ces biais?

A l’heure actuelle, on ne sait pas vraiment. Les chercheurs en informatique publient de nombreux papiers sur ce sujet. Comment facilement déboguer ces modèles? Comment éviter les biais? C’est compliqué techniquement, mais la technologie va sans doute s’améliorer rapidement, vu les enjeux colossaux dans ce secteur.

Avez-vous d’autres exemples de dysfonctionnements d’un modèle d’intelligence artificielle?

Un autre cas a fait polémique aux Etats-Unis, c’est le modèle COMPAS, utilisé dans le domaine de la justice. Ce programme donne une prédiction si «oui» ou «non» l’accusé doit bénéficier d’un sursis. En 2016, le média ProPublica a dénoncé cette intelligence artificielle en l’accusant d’être biaisée en défaveur de la minorité noire. La société qui fournit le modèle (Nortpointe Inc) a contesté ces accusations.

Comment voyez-vous la suite?

J’ai été jusqu’à présent assez négatif sur le déploiement du deep learning, mais il ne faut pas se leurrer, l’intelligence artificielle est une révolution. Ces technologies sont extrêmement puissantes et vont vraisemblablement s’imposer. Mais elles sont aussi très délicates à mettre en œuvre, notamment à cause de ces biais.

N’est-on pas en train simplement de déplacer le problème? Les recruteurs connaissent ces biais depuis longtemps...

Absolument. Mais en dessous de plusieurs milliers d’exemples, cela ne vaut pas la peine de déployer un réseau de neurones. Il faut des centaines de milliers, voire des millions d’exemples pour que cela fonctionne. Et avec une quantité si vaste de données, il n’est plus possible de contrôler manuellement chaque exemple.

A terme, il n’y aura donc qu’une demi-douzaine de gros acteurs qui vont commercialiser des outils de sélection de candidatures fiables?

Oui, c’est ce que je prévois. Je sais que Google s’intéresse à ce segment. Amazon le fait en interne, peut-être qu’un jour va-t-elle proposer un outil via le Cloud.

Il y en a d’autres?

Oui, tous les gros agrégateurs d’offres d’emploi sont sur les rangs. Car être en mesure de proposer un service de matchmaking sera un avantage concurrentiel indéniable. Cette situation pose en revanche un gros problème en termes de dépendance technique et économique de l’Europe face aux Etats-Unis et à la Chine.

Quels autres processus RH seront impactés par l’intelligence artificielle?

Je vois plusieurs domaines. Toutes les tâches administratives simples par exemple. On parle ici de tâches de deux secondes ou moins. L’automatisation de ces tâches permettra de créer des modèles bien plus performants que l’humain.

Vous parlez des dossiers du personnel, de la gestion des absences, de la gestion des temps?

Oui, de même que la gestion des salaires. De nombreux processus seront optimisés automatiquement à l’avenir. C’est assez simple à faire techniquement: on prend les données, on les modélise et on optimise le modèle jusqu’à ce qu’il soit meilleur que l’activité humaine.

D’autres domaines RH?

L’évaluation des performances. L’intelligence artificielle permettra d’avoir des critères plus objectifs sur la contribution de chacun à la valeur de l’entreprise. C’est une pratique de plus en plus courante dans le domaine informatique.

Pouvez-vous nous en dire un peu plus?

Microsoft a acquis en juin dernier GitHub pour 7,4 milliards de dollars. GitHub est un réseau de codeurs très populaire, notamment dans la Sillicon Valley. Cette plate-forme, créée initialement en open source, réunit les contributions de toutes les personnes qui participent au développement d’un software. Tout est noté, archivé et évalué. Si les changements que vous proposez sont acceptés par la communauté, votre valeur sur le marché de l’emploi va augmenter. Dans le milieu des ingénieurs, cette manière d’évaluer le travail est entrée dans les mœurs. Et on pourrait imaginer que ce système s’applique à d’autres métiers.

N’y a-t-il pas un danger de faire évaluer le travail par cette intelligence artificielle?

Au-delà des algorithmes et des biais possibles, l’enjeu se situe au niveau de la qualité des données. GitHub est une excellente source de données, car cette data est validée par la communauté. Ce n’est pas toujours le cas. Prenons l’exemple des données Facebook ou LinkedIn. Elles doivent être prises avec des pincettes. Admettons que vous publiez plusieurs posts sur le machine learning sur LinkedIn, cela ne veut pas dire que vous êtes expert dans ce domaine... Nous assistons donc à une course aux données de qualité. Et au final, seules deux ou trois entreprises y auront accès.

Voyez-vous d’autres champs RH qui seront impactés par le Big Data?

L’onboarding s’y prête particulièrement bien. Ce processus est très codifié, avec une série d’étapes relativement simples. Aujourd’hui, les algorithmes sont capables de matcher la bonne réponse à la question du nouvel employé, même si celle-ci est formulée de manière différente ou personnelle.

Ce sont les fameux chatbots?

Oui, ce sont les programmes derrière les chatbots, des softwares d’analyse de texte automatique. Il y aura un vrai boom dans ce segment. Ces outils seront à court terme plus rapides et plus efficaces que l’humain.

D’autres domaines?

Oui, je pense que la formation sera impactée également. Grâce aux données, on pourra créer des formations sur mesure, spécifiques à chaque employé. Enfin, tout ce qui touche à la compliance est aussi en train d’être révolutionné. Les processus déployés dans l’entreprise respectent-ils les standards légaux? L’IA répondra à ces questions de manière automatique et en temps réel.

Comment l’IA va-t-elle impacter le quotidien du collaborateur et sa relation au travail?

Concrètement, je pense que les assistants, type Alexa d’Amazon, deviendront omniprésents sur la place de travail. Le pouvoir décisionnel restera toujours dans les mains des employés, mais ils
seront de plus en plus aidés en cela par des assistants fonctionnant avec de l’IA.

Avec quelles dérives possibles?

Récemment, un employé américain a été licencié par un tel assistant. Autant la décision que l’annonce ont été prises par la machine. Cela paraît invraisemblable, mais cette histoire est véridique. Voilà un exemple de ce que l’on ne veut pas! En revanche, ce qui est certain, c’est qu’à l’avenir, quand un manager devra licencier du personnel, il sera assisté par l’IA pour déterminer quelles personnes licencier. La décision sera prise par un être humain, mais il ou elle s’appuiera sur les éléments fournis par la machine.

Quid de l’aspect légal? Imaginons que le collaborateur dénonce son employeur aux Prud’hommes, comment le juge va-t-il évaluer le licenciement, prononcé partiellement par la machine?

A l’heure actuelle, c’est extrêmement difficile – même pour un scientifique – de comprendre comment un algorithme délivre ses décisions. Donc un juge ne pourra pas le faire. Cela pose un vrai problème. Aujourd’hui, les algorithmes sont déjà utilisés pour licencier des personnes ou pour décider d’un sursis, d’une promotion ou de l’octroi ou non d’un bonus. Toutes ces pratiques posent des problèmes techniques et sociaux importants. Il faudra se mettre autour de la table et discuter. La question de la responsabilité sera au centre des débats. Pour l’instant, la situation est assez claire, le responsable est l’entreprise qui met en œuvre l’IA, ou selon les contrats, l’entreprise qui fournit le software. Mais cela devient très difficile de cerner avec précisions les tenants et les aboutissants d’une décision prise par un algorithme.

Quels sont les risques en termes de protection des données?

Les lois suisses sont en train d’être mises à jour. Je pense qu’elles vont dans le bon sens. Je suis plus préoccupé par l’opacité qui règne autour des grands acteurs américains, non seulement au niveau des données, mais aussi des processus qu’ils utilisent pour les traiter. Aujourd’hui, c’est le Far West. Toutes les deux semaines, une de ces grandes entreprises annonce que certaines données n’étaient pas protégées ou admet des pratiques contraires à la loi. Et comme personne ne sait ce qui se passe à l’intérieur de ces entreprises, personne ne peut tirer la sonnette d’alarme. Il y a là un vrai problème.

Si je résume, l’Europe est vulnérable par rapport à ces gros acteurs américains et chinois et de surcroît, on ne sait pas vraiment ce qu’ils font...

Absolument! Cela dit, les lois européennes obligent aujourd’hui ces grandes firmes à dévoiler les données personnelles qu’elles stockent. Mais cela ne veut pas dire qu’on connaît les processus qu’elles utilisent pour faire parler ces données. Encore une fois, les données ne sont que la moitié du problème. Imaginons que mon profil GitHub soit accessible. Cela ne me pose pas de problème. Mais si ce profil est utilisé pour créer un CV qui sera envoyé aux entreprises de recrutement, sans mon consentement, là cela me pose un problème. Encore une fois, il y a trop d’obscurité au niveau des données utilisées et des processus.

Et l’Europe est dans une position de dépendance économique face à ces géants...

Oui. Il y a un problème de concentration du pouvoir. Si la tendance actuelle se poursuit, la plupart des processus à haute valeur ajoutée seront regroupés dans une dizaine d’entreprises au niveau mondial. Ce n’est pas bon pour l’Europe. Nous sommes en train de perdre le contrôle de ces processus stratégiques. Car imaginons la suite. Une fois que votre profil professionnel est établi, on pourrait l’utiliser pour vous accorder un prêt bancaire, un bail à loyer ou une assurance. Il y a là un vrai problème. Et c’est bien la direction vers laquelle on se dirige.

L'intervenant

Philippe Cudré-Mauroux est professeur ordinaire au département informatique de l’Université de Fribourg. Chercheur dans les domaines du Big Data et de l’intelligence artificielle, il a notamment travaillé au M.I.T. (Massachusetts Institute of Technology), à U.C. Berkeley (University of California) et à l’EPFL de Lausanne. En 2016, le Conseil européen de la recherche lui a attribué une subvention de 2 millions d’euros pour ses projets de recherche sur le Big Data.

 

Laisser un commentaire0 Commentaires

Marc Benninger est le rédacteur en chef de la version française de HR Today depuis 2006.

Davantage d'articles de Marc Benninger

Commenter

Ces articles pourraient vous intéresser