Développer une juste confiance dans l'intelligence artificielle
On attend des collaborateurs qu'ils aient confiance dans l'IA générative, tout en se méfiant des contenus qu'elle produit. Comment maintenir leur esprit critique face à une technologie dont les interfaces et les réponses inspirent spontanément confiance?

Photo: Unsplash
C’est bien connu, rien ne sert de déployer une technologie si les collaborateurs ne s’en servent pas ou s’ils en font mauvais usage. C’est la raison d’être des initiatives de gestion du changement: stimuler l’adoption et vaincre les réticences des équipes en développant leur confiance et leur maîtrise des nouveaux outils.
Avec l’IA générative, cet impératif de confiance questionne. La technologie a en effet une méchante tendance à glisser des erreurs dans ses réponses, et ces «hallucinations» ne sont pas près d’être résolues. Pour détecter et corriger ces inventions aux conséquences parfois fâcheuses, on compte sur l’humain. Et on attend qu’à l’heure de vérifier les outputs de l’IA, les utilisateurs usent de leur expertise et se montrent particulièrement vigilants. On aimerait en somme qu’ils soient confiants, mais pas trop, qu’ils fassent confiance à l’outil, tout en se méfiant systématiquement des contenus qu’il génère.
Quand l’IA déjoue nos mécanismes de confiance
Développer la juste confiance dans un outil informatique est un processus complexe. Avant même de l’avoir dans les mains, nous nous en faisons une certaine idée à partir de ce que les autres nous en disent et de notre expérience de logiciels similaires. À l’usage ensuite, nous modérons aussi notre vigilance, selon qu’il s’agit d’une tâche critique ou sans conséquence. Peu à peu, nous constatons ce qui marche ou pas, et nous calibrons notre degré de confiance dans l’outil, avec le risque toutefois que la routine, la pression du temps et les objectifs de performance n’abaissent notre vigilance. Sans oublier les biais qui nous font accorder une confiance excessive aux dispositifs automatisés et ignorer leurs erreurs même manifestes.
Les choses se compliquent encore avec les interfaces conversationnelles de l’IA générative. Lorsque nous communiquons par le langage, nous mobilisons en effet d’autres mécanismes pour déterminer si notre interlocuteur nous dit la vérité ou nous mène en bateau. À commencer par notre expertise: il est difficile de nous tromper sur un sujet que nous maîtrisons parfaitement.
Lorsque cela ne suffit pas, nous nous appuyons sur des indices langagiers. Ainsi, si notre interlocuteur nous répond vite, longuement et sur un ton sûr, et que sa réponse est plausible et argumentée, nous serons bien plus tentés de lui faire confiance…Or c’est précisément ce qui caractérise les contenus générés par l’IA. Sans compter que ces systèmes sont conçus pour nous conforter dans nos opinions. Bref, tout dans ces solutions concourt à doper insidieusement notre confiance, alors que nous sommes au contraire censés faire preuve d’une grande vigilance eu égard à leurs hallucinations répétées.
Muscler la vigilance
La juste confiance accordée aux outputs de l’IA générative est essentielle aux succès des déploiements dans les entreprises. Face au danger d’une confiance excessive, les entreprises disposent de plusieurs leviers.
Au niveau du positionnement des projets, elles peuvent s’assurer que les communications véhiculent le bon message: confiance dans le changement, méfiance dans l’outil et ses outputs. Elles peuvent aussi s’efforcer d’expliciter les niveaux de qualité et de vigilance attendus selon les scénarios d’usage. Et veiller à ce que les collaborateurs disposent de suffisamment de temps et d’expertise pour exercer ces contrôles.
Plus difficiles à mettre en œuvre, certaines mesures techniques peuvent également aider les collaborateurs à calibrer leur confiance et à moduler leur vigilance. Leur indiquer par exemple le degré de certitude de l’IA générative à chacune de ses réponses, ou s’assurer que les utilisateurs obtiennent un feed-back sur la qualité finale des contenus qu’ils ont vérifiés.
La formation continue des collaborateurs est un autre levier crucial. Il s’agit de les doter de savoirs et techniques, qui leur permettent de calibrer leur confiance dans l’IA générative de façon adéquate. Ce qui implique de comprendre la nature des hallucinations, de développer une conscience des mécanismes de confiance que l’on mobilise et de la manière dont l’IA les déjoue, et de disposer de bonnes pratiques conversationnelles propices à la vigilance.
Enfin, la juste confiance dans les productions de l’IA générative repose aussi sur la confiance du collaborateur dans sa propre expertise et dans son organisation. Une entreprise qui valorise le jugement humain et autorise le doute crée les conditions d’une vigilance durable.