«Avec l'IA, nous sommes rattrapés par les prévisions de la science-fiction»
Denis Cristol est un expert des enjeux de formation et des sciences de l'éducation. Il répond ici aux questions éthiques soulevées par la diffusion à grande échelle de l'IA dans nos sociétés.
Photo: DR
Quelles sont les grandes questions philosophiques que pose l’IA (intelligence artificielle)?
Denis Cristol: L’une des questions philosophiques les plus fondamentales posée par l’intelligence artificielle est de savoir si une machine peut être considérée comme étant intelligente sans comprendre ce qu’elle fait. Si les machines peuvent être considérées comme intelligentes, cela soulève également des questions sur la relation entre l’intelligence et la conscience. La conscience occidentale avait été bouleversée après la découverte de l’Amérique, qu’en sera-t-il après l’émergence du continent caché de l’IA?
Le philosophe Suédois Nick Bostrom suggère que «Le concept même d’une intelligence non biologique exige une révision radicale de nos idées sur ce que nous sommes et quelle est notre place dans l’univers» (2014).
Et d’un point de vue anthropologique?
L’intelligence artificielle a des implications pour l’anthropologie en ce qui concerne notre compréhension de l’être humain et de notre relation aux technologies. Selon l’historien israélien Yuval Harari, «l’avènement de machines intelligentes menace de perturber les sociétés humaines en rendant de nombreux emplois obsolètes et en créant de nouvelles formes d’inégalités sociales et économiques» (2018). Selon une étude de l’Université d’Oxford, les machines surpasseront les humains dans un grand nombre de tâches d’ici à 2062. Publiée en 2017, cette étude expliquait que les programmes informatiques seraient à même de rédiger des livres complets dès 2049, ou encore de remplir certaines tâches de chirurgien en 2053. Selon le principe de la destruction créatrice de Schumpeter (1942) une innovation vient détruire d’anciens métiers et d’anciennes pratiques pour laisser la place à d’autres, porteurs d’une plus grande efficacité. Cependant dans l’histoire, les laissés pour compte des anciennes pratiques ont souffert des déclassements; quel risque politique encourt-on à laisser le marché s’ajuster selon ses «lois naturelles»?
Ces IA posent aussi des questions de droits d’auteur...
Oui. Non content de produire de l’infobésité, les IA pillent toute propriété intellectuelle en se nourrissant de données dans le plus grand flou juridique. Les artistes voient copier leurs styles sans contreparties, les radios et les journaux leurs émissions et leurs articles. Certains éditeurs de contenus interdisent désormais l’accès à leurs bases de données.
Quel est l’impact environnemental de l’IA?
L’IA consomme des ressources énergétiques importantes, et soulève des questions sur l’impact carbone du numérique prévu de tripler d’ici 2050. Selon Benjamin Guedj, chercheur et mathématicien à l’INRIA (Institut national de recherche en informatique et en automatique), «pour une tâche cognitive simple comme reconnaître un élément dans une image, on estime qu’une machine consomme quatre à six ordres de grandeur d’énergie de plus (1 000 à 100 000 fois plus) qu’un cerveau humain!» Selon Sajjad Moazeni, professeur adjoint d’ingénierie électrique et informatique à l’Université de Washington, les centaines de millions de requêtes quotidiennes sur ChatGPT coûtent environ 1 GWh par jour, ce qui équivaut à la consommation quotidienne d’énergie d’environ 1 000 ménages américains. L’ensemble de ces enjeux échappe à la compréhension fine des citoyens.
Quels sont les impacts éthiques des IA?
Elon Musk affirme que «L’intelligence artificielle est potentiellement plus dangereuse que les armes nucléaires.» L’existence de l’intelligence artificielle soulève des questions profondes sur la nature de la réalité et sur la façon dont nous nous rapportons aux machines intelligentes. «L’existence de machines intelligentes soulève des questions philosophiques profondes sur la nature de la réalité et la possibilité d’une conscience artificielle». Une conscience a d’abord conscience de soi, est capable d’at- tention et de contrôle sur elle-même, de produire des jugements autonomes et d’explorer des zones grises, dispose d’une représentation spatiale et des contextes, interagit avec son environnement à partir de son intériorité. La conscience est bien plus qu’une simple rétroaction. Il conviendrait peut-être de parler d’intelligence humaine augmentée, plutôt que d’intelli- gence artificielle.
Et il y aura sans doute un impact sur l’emploi aussi?
À ce jour, les projections de pertes d’emploi sont estimées à 300 millions par Goldman Sachs et les gains sont estimés par le World Economic Forum à 100 millions. Les mouvements se produiraient essentiellement dans les pays développés.
Quels sont les autres enjeux éthiques posés par l’IA?
Pour Chomsky, le fondateur de l’idée de grammaire générative, le langage est une puissance intérieure humaine permettant de générer et de comprendre, grâce à un nombre fini de règles, un nombre infini de propositions qui expriment la pensée. Cependant pour Chomsky (2023), l’IA se contente de décrire ou de prédire quand la contextualisation humaine permet d’expliquer et de réguler. Cette neutralité quant aux contextes et aux situations fait dire à Chomsky qu’une machine servile ne faisant que restituer des chaînes de caractères probables contribue à la banalité du mal et à la déresponsabilisation générale. Une multiplicité de biais dans la conception des algorithmes est décelable et ils finissent par reproduire les discriminations et croyances majoritaires du moment puisque les IA s’appuient sur la consultation d’une masse de données. Selon une étude menée sur 96000 images (Luccioni et al 2023) 97% des images produites par le logiciel d’IA générative DALL-E2 de la société OpenAI présentaient des problèmes de préjugés raciaux ou sexistes. Les enjeux éthiques de l’IA incluent également la transparence, la responsabilité et le contrôle. Une enquête de Stanford note que les «incidents et controverses» liés à l’IA ont été multipliés par 26 au cours de la dernière décennie. Des cas de dépendance, de suicide, de divorce ont même été imputé aux agents conversationnels. Les préoccupations concernant la sécurité et la protection de la vie privée sont importantes. La fraude aux IA se développe, la production de fausses informations et de fausses preuves deviennent des fléaux pour les démocraties et distille le poison du doute. Les problèmes éthiques en robotique et intelligence artificielle pédagogique se posent dès à présent. Commençons par marquer les esprits pour bien faire comprendre que nous sommes rattrapés par les prévisions de la science-fiction. En Australie, le gouvernement a décidé d’utiliser des robots tueurs dotés d’IA pour éradiquer des millions de chats errants. Les humains ne sont pas épargnés. Selon les ONG (Rapport Amnesty International), c’est une fourchette de 1500 à 4000 personnes qui ont été tuées par des drones américains. Cela aurait débuté en 2004. Avec les drones militaires programmés pour tuer, qui plus est, avec des décisions autonomes déléguées aux machines, désormais possible avec le programme Skynet.
L’IA, est-ce une nouvelle religion?
D’ores et déjà les religieux s’intéressent aux algorithmes et aux questions éthiques. Un moine bouddhiste américain engage des méditations sur l’IA pour trouver le chemin d’intégration des enseignements du Bouddha dans les codes des algorithmes, pendant qu’en France l’association «espérance et algorithmes» réunit des entrepreneurs chrétiens pour que la programmation en cours du monde n’empiète pas sur notre discernement et notre responsabilité. En y ajoutant des éléments juridiques et éthiques, le rappel des 3 lois de la robotique d’Isaac Asimov énoncées en 1942 est plus que jamais de mise:
- Un robot ne peut porter atteinte à un être humain, ni, en restant passif, ni permettre qu’un être humain soit exposé au danger;
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi;
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Des questions se posent pour harmoniser la relation entre vie organique et interaction mécanique et numérique dans le registre éducatif. Il serait là aussi temps d’imaginer des lois de la robotique éducative.
Comment les programmations d’IA et les réponses toutes faites exercent-elles leur influence sur nous?
Les internautes se sont déjà habitués à l’influence des moteurs de recherche qui nous guident dans nos questionnements ou préforment nos phrases. Ils accumulent sur chacun de nous une masse d’informations. Cette auto-complétion à partir des éléments de langage que nous formalisons nous fait croire que ces moteurs connaissent nos préférences et nous présentent ce qui paraît la suite la plus pertinente. Des arrière-pensées commerciales sont perceptibles. Des contenus fallacieux peuvent être développés et propagés. À l’occasion du «Sommet mondial sur l’IA au service du bien social», une démonstration réalisée à l’ONU avec 9 robots humanoïdes gavés d’IA a généré un doute sur leurs possibles intentions cachées. Un robot détournant le regard et répondant par de la langue de bois à la question «un robot peut-il mentir aux humains?», un deuxième changeant de réponse après l’intervention de son concepteur, lui indiquant qu’il ne saurait finalement pas mieux diriger le monde qu’un humain.
Devra-t-on interdire aux robots et à l’IA de diffuser des mensonges ou thèses racistes? Qui et comment s’assurer des vérités acceptables? Qui connaît vraiment les filtres d’un moteur de recherche? Y a-t-il un réel contrôle des citoyens sur le développement des IA et des programmations de robots?
Pas vraiment et c’est une proposition à suivre de Jacque Testart, pionnier des méthodes de procréation assistée que d’orienter leur développement. Ces questions éthiques ou parfois simplement pratiques ne sont qu’un petit aperçu. La difficulté de limiter la régulation par les IA réside dans la croyance qu’un cerveau augmenté implique forcément un humain grandi. Est-ce automatique? Rien n’est moins sûr tellement la technoférence nous détourne de nos activités sociales pour nous garder collés à des écrans.