Pionnier de la réflexion sur l’intelligence artificielle en France, Daniel Andler lui consacre un livre important : ses origines conceptuelles, les étapes de son développement, ses percées et énigmes actuelles… Mais aussi ses perspectives futures. L’IA forte est-elle à nos portes ? Daniel Andler en doute. Les cris d’alarmes qu’on lance à ce sujet masquent souvent d’autres dangers plus concrets, concernant l’emploi, la surveillance, le solutionnisme technologique substitué à la politique. Autre grand intérêt de l’ouvrage : la fine connaissance que l’auteur a des sciences cognitives, qui lui permet d’étudier le lien quasi dialectique entre le projet d’IA et l’interrogation sur l’intelligence humaine, de sorte que « chaque pas accompli par l’intelligence artificielle semble consister à découvrir que l’intelligence n’était pas là où elle pensait en trouver la trace[1] ». Pour la Revue Politique et Parlementaire, Florian Forestier a interviewé l’auteur de Intelligence artificielle, intelligence humaine : la double énigme paru chez Gallimard.
Revue Politique et Parlementaire – Peut-on commencer par évoquer vos relations avec l’IA et ses acteurs.
Daniel Andler – C’est par Hubert Dreyfus que je suis venu à l’IA. C’était en 1970 et j’étais récemment arrivé à Berkeley pour faire une thèse de mathématiques. Lui venait de prendre un poste de professeur de philosophie. Formé à Harvard, il avait passé une année comme pensionnaire étranger à l’École normale supérieure où il avait découvert la phénoménologie, dont les ressources lui suggérèrent une critique philosophique du programme de l’IA formulé par les pionniers des années 1950-1960. À son séminaire consacré à la question ont défilé John Searle, John Haugeland, Charles Taylor et bien d’autres, et c’est à ce moment que j’ai compris qu’il était bien moins facile que je me l’étais figuré de montrer qu’une machine ne peut pas penser ; je compris que nos intuitions de sens commun ne suffisent pas. Ce séminaire donna naissance en 1972 à l’ouvrage What Computers Can’t Do, qui fut mis à jour à plusieurs reprises, et traduit avec mon aide en français en 1984. Cette année-là je fis connaissance de Herbert Simon, l’un des pères de l’IA et prix Nobel d’économie en 1978. J’intervins dans un colloque en son honneur à la Grande Motte, en faisant valoir un point de vue critique sur le programme de recherche de l’IA première manière, qu’on appellera bientôt symbolique ou classique, et qu’il avait formulé et défendu avec clarté. Ce premier échange se prolongea dans les années suivantes par des débats avec des spécialistes français, tels que Jean-Louis Pitrat et Jean-Gabriel Ganascia. Un tournant fut pris lors d’une visite aux États-Unis, grâce à ma rencontre avec Jay McClelland, l’un des pères de ce que l’on appela le connexionnisme, et co-directeur de l’énorme ouvrage collectif paru en 1986 en deux volumes à MIT Press sous le titre de Parallel Distributed Processing. The Microstructure of Cognition. De retour en France, je m’avisais que dans le bureau jouxtant le mien au CREA, dévolu au Laboratoire de dynamique des réseaux dirigé par Henri Atlan, travaillait un jeune doctorant du nom de Yann Le Cun. Yann allait bientôt redécouvrir, en collaboration avec Geoffrey Hinton, qu’il rencontra lors d’une table-ronde que j’avais organisée en 1985, l’algorithme de rétropropagation, grâce auquel il devenait possible d’entraîner des réseaux multi-couches. C’était le début d’une aventure qui conduisit au deep learning et au triomphe actuel de l’IA. Le connexionnisme était aussi une approche de la cognition qui s’opposait à la tradition symbolique, et c’est surtout pour cette raison que je m’y suis d’abord intéressé, car entretemps je m’étais tourné vers les sciences cognitives, qui étaient en plein développement et m’étaient apparues comme le cadre dans lequel poser la question de l’intelligence artificielle, qui piétinait depuis un certain temps. Je suis revenu à l’IA à la fin des années 2010, au moment où le monde et ses dirigeants, impressionnés, à juste titre, par ses résultats, s’avisaient de son existence et de son importance stratégique.
RPP – Vous le montrez bien, l’IA, est la concrétisation d’une conception et d’un projet philosophique. En quelque chose de la philosophie continuée par d’autres moyens. Quelles en sont d’après vous les étapes ?
Daniel Andler – Je saute, faute de temps, par-dessus les antécédents philosophiques du projet, profondément ancré dans une tradition rationaliste illustrée notamment par Hobbes, Descartes, Leibniz et lié au développement de la logique moderne, de Frege aux grands logiciens du premier tiers du XXe siècle, pour aller directement aux fondateurs du domaine.
Première étape : « opérationnaliser » la notion de pensée, en substituant à la notion essentialiste traditionnelle, liée à l’idée d’un Je pensant donc conscient, une notion fonctionnelle. On redéfinit la pensée comme la capacité de produire un flux cohérent de propositions. Une telle capacité s’éprouve notamment lors de processus rationnels, conduisant d’un ensemble d’énoncés à une conclusion logique ou probable, et lors de conversations. C’est Turing.
Deuxième étape : comprendre, ou plutôt redécouvrir, que les ordinateurs qui viennent d’émerger de quelques laboratoires, peuvent être vus comme des manipulateurs universels de symboles, et non pas seulement des manipulateurs de nombres. C’est Simon et le groupe réuni à Dartmouth en 1956.
Troisième étape : décider que les symboles manipulés renvoient à des notions et opérations de niveau « personnel », c’est-à-dire du genre de celles que nous sommes en principe capables d’appréhender et d’effectuer consciemment. C’est encore le groupe de Dartmouth, fondant ainsi l’approche symbolique.
Quatrième étape : renoncer au moins provisoirement à l’objectif de créer une unique intelligence artificielle bonne à tout. L’objectif est désormais d’automatiser, l’une après l’autre, les tâches accomplies avec ou par l’intelligence humaine, c’est-à-dire assurées par notre appareil cognitif. C’est l’installation de l’IA dans sa phase symbolique classique.
Cinquième étape : commencer par se restreindre, pour une tâche donnée, à un « micro-monde » constitué par une représentation schématique simplifiée du domaine concerné.
Sixième étape : devant l’impossibilité constatée de « passer à l’échelle », c’est-à-dire d’étendre au monde réel une solution obtenue dans un micromonde, recourir à l’expertise humaine — extraire d’experts humains de la tâche considérée les règles qu’ils suivent pour traiter les différents cas. C’est la phase des systèmes-experts.
Septième étape : revenir simultanément sur la deuxième et la troisième étapes — (1) abandonner l’ordinateur classique dit de von Neumann comme système cognitif artificiel fondamental, en faveur de réseaux de neurones formels ; (2) abandonner le niveau « personnel » et modéliser un niveau « micro » ou « subpersonnel » qui sous-tend les processus « personnels » conscients, un peu à la manière dont ces processus émergent dans le cerveau des interactions entre les neurones, composantes élémentaires du traitement de l’information. Ces réseaux acquièrent leur compétence par exposition à un grand nombre d’exemples. C’est le « connexionnisme ».
Huitième étape : sous le nom de « deep learning » ou « apprentissage profond », le connexionnisme devient le courant dominant en IA. L’IA devient une technologie transformatrice, susceptible d’affecter profondément tous les secteurs d’activité.
Neuvième étape : combiner le deep learning et les techniques mises au point dans le traitement du langage naturel, pour produire des modèles capables d’absorber la quasi-totalité du contenu du Web. C’est la naissance de l’IA générative et le retour de l’ambition originelle, abandonnée à la quatrième étape : produire une véritable intelligence artificielle, égale voire supérieure à l’intelligence humaine.
Nous aurons l’occasion d’évoquer une nouvelle étape qui émerge aujourd’hui.
RPP – De nos jours, vous venez de le noter, l’IA est complètement dominée par ce qu’on appelle le deep learning. Peut-être pouvez-vous rappeler ses principes généraux, son fonctionnement, et ce qui a conduit à son essor actuel ?
Daniel Andler – Les méthodes connexionnistes ont connu leur essor dans les années 1980. Elles ont formé une véritable école de pensée. Celle-ci revendiquait une forme de plausibilité phénoménologique – elle avait des points communs avec l’apprentissage naturel, étudié par la psychologie du développement. Cette école regroupait différentes orientations qui se renforçaient les unes les autres. Il y avait un connexionnisme des ingénieurs, tourné vers des questions de traitement du signal : par exemple, comment un sonar peut-il distinguer un rocher d’une mine : questions complexes, basée sur des banques d’exemples, mais sans « cognition » à proprement parler. Il y avait aussi un connexionnisme des psychologues (d’orientation cognitiviste). Il y avait un connexionnisme des neuroscientifiques, qui visaient à modéliser le fonctionnement du cerveau. Les recherches relevant de l’IA à proprement parler puisaient à ces trois sources.
Ces méthodes ont connu quelques succès puis se sont heurtées à des difficultés techniques de passage à l’échelle, qui ont provoqué une longue éclipse dans les milieux de la recherche. Celles-ci ont été levées par des progrès mathématiques (les réseaux à convolution), techniques (les cartes graphiques utilisées pour les jeux vidéos accélérant considérablement les calculs), par des performances spectaculaires (en 2012, un modèle connexioniste a écrasé tous ses concurrents lors d’un concours de reconnaissance d’images), et aussi une campagne de communication très réussie, lors de laquelle le terme connexionnisme a été remplacé par celui de deep learning.
RPP – Mais comme vous le montrez, le deep learning souffre de plusieurs limites. D’une part, sa sensibilité au détail, de sorte qu’il peut être trompé facilement. D’autre part, ce que vous appellez sa cécité algébrique : le DL ne sait pas extrapoler, et encore moins simuler une structure dont les éléments dépendent étroitement les uns des autres, ce qui est par exemple le cas du langage.
Daniel Andler – Les modèles du deep learning (DL) sont très vulnérables aux modifications imperceptibles des stimuli qu’ils sont supposés reconnaître. On a vérifié empiriquement qu’il suffisait parfois de modifier un pixel pour changer totalement les données de sortie d’un algorithme de reconnaissance d’images, et c’est très général. On constate qu’un même système de DL interprète de manière totalement divergente des données qui pour l’entendement humain sont rigoureusement indiscernables. Cette vulnérabilité est en quelque sorte intrinsèque : on sait immuniser le système contre les faiblesses repérées, mais pas prévoir les faiblesses potentielles. Il faut comprendre qu’à tous les niveaux et tous les moments du développement de la technologie de l’IA, il y a beaucoup de travail et de découvertes empiriques : à force d’essayer, on arrive à des résultats non prévus, sans savoir pourquoi.
Pour Gary Marcus, qui est un peu le porte-étendard de la résistance au connexionnisme, la cognition humaine repose de manière plus ou moins implicite sur une combinatoire. Le langage, par exemple a une structure combinatoire (Marcus dit « algébrique »). Or, les réseaux de DL ne se prêtent pas de manière directe et naturelle à la combinatoire. On peut essayer de simuler de manière limitée cette capacité, mais dans un cas particulier, et cela revient à introduire du symbolique. On peut également surmonter la « cécité sémantique », mais de manière encore très limitée. C’est ce qui amène certains chercheurs à parler d’une troisième époque de l’IA, basée sur la remise en cause de plusieurs décisions fondatrices du DL. Ces chercheurs cherchent à réintroduire des concepts de l’IA symbolique à l’intérieur même du DL, s’inspirent des sciences cognitives et des processus humains, renoncent à l’empirisme strict. Ils remettent à l’ordre du jour les notions de capacité algébrique, d’intelligence et d’architecture : pour Marcus, tant qu’on n’aura pas réussi à doter le système d’une capacité combinatoire, on ne saura pas modéliser l’Intelligence humaine. Pour ma part, je ne crois pas à la possibilité de modéliser l’intelligence humaine, pour des raisons de fond.
RPP – Cette troisième époque de l’IA est-elle encore purement prospective ? Est-ce que les modèles génératifs relèvent peu ou prou de ces approches ?
Daniel Andler – C’est un domaine qui bouge très vite, et dans lequel beaucoup de développements sont couverts par le secret industriel. On sait que les modèles derrière GPT reposent sur plusieurs réseaux multicouches articulés, et que l’essentiel de la percée est issue des recherches sur le traitement du langage naturel, donc sur le deep learning. A ma connaissance, les objets de recherche qui sont au cœur du projet de troisième génération ne sont pas déployés au stade industriel. Pour l’instant…. Le buzz autour de l’IA générative masque peut-être d’autres percées en cours.
RPP – Dans votre ouvrage vous mentionnez plusieurs percées réelles. Vous évoquez par exemple celles qui s’efforcent, en utilisant des graphes plutôt que des vecteurs, d’appliquer les techniques d’apprentissage à des domaines dotés d’une structure interne. Un des fruits de ces recherches est AlphaFold, développée par Deepmind, qui a permis de modéliser le repliement des protéines. Pouvez-vous en dire quelques mots ?
Daniel Andler – Oui, Alphafold n’a rien à voir avec l’IA générative, et c’est une percée tout à fait essentielle. Et comme vous le dites, c’est déjà le résultat d’un dépassement de l’opposition entre IA symbolique et IA connexionniste. Cela marque le moment ou l’IA devient une discipline d’ingénierie cognitive, épistémique. Ce qui permet de parler d’une troisième génération, c’est aussi le changement d’attitude de la part des chercheurs, qui abandonnent l’opposition symbolique-connexionnisme qui s’était imposée, et se mettent plutôt en quête de solutions à des problèmes précis, en étant prêts à faire « feu de tout bois ».
RPP – Arrêtons-nous sur ChatGPT, et sur les logiciels fonctionnant sur des principes similaires. Il en existe dites-vous des dizaines, et ceux-ci sont en développement constant.
Daniel Andler – L’IA dite générative est basée sur deux percées.
La première est celle des transformers. Cette architecture, conçue en 2017, introduit des mécanismes appelés d’auto-attention, très utiles pour analyser en un temps raisonnable les relations entre termes d’une séquence (comme les mots d’une phrase) en tenant compte des dépendances des éléments à longue distance. L’architecture transformer repose fondamentalement sur le DL, même s’il s’agit d’une architecture assez complexe.
La seconde percée concerne la manière dont on va entrainer le modèle. Lorsqu’on veut s’attaquer à des objets comme le langage, il est impossible de pré-étiqueter les données d’entraînement, car les mots peuvent prendre trop de fonctions différentes. En conséquence, on utilise le modèle du mot masqué, qui est une forme d’auto-supervision. On demande au modèle de prédire le mot masqué (ou le mot suivant. selon les modèles), puis on démasque, et le modèle se corrige progressivement. Ensuite, peut intervenir une deuxième phase d’apprentissage supervisé par renforcement (en anglais, reinforcement learning from human feedback, ou RLHF). Ce qui a surpris les chercheurs, c’est que ce deuxième passage, qui fait intervenir relativement peu de cas, améliore considérablement la performance d’ensemble du système.
RPP – Oui, vous montrez que déjà dans le deep learning, il y a quelque chose d’énigmatique à la réussite d’un modèle.
Daniel Andler – J’en ai discuté avec des chercheurs qui développent directement des modèles pour de grandes entreprises. Eux-mêmes avouent ne pas comprendre fondamentalement pourquoi « ça marche ». C’est déjà le cas au niveau plus général des modèles simples du DL. On ne comprend toujours pas bien par exemple pourquoi les techniques utilisées pour rétro-propager l’erreur fonctionnent. Comme si la structure fondamentale de ce qui est à apprendre était un cas particulier dans lequel l’apprentissage était possible. Comme si la structure fondamentale de la réalité s’y prêtait. Quand on y pense, il s’agit d’une énigme qui rappelle celles de la physique quantique.
RPP – Ce qui vous fait douter de la possibilité de ce qu’on appelle l’explicabilité…
Daniel Andler – J’ai toujours compris l’explicabilité comme la possibilité de rendre compte des « raisons » d’un résultat. Je suis un assureur, on me demande de proposer un contrat d’assurance, l’IA conseille de refuser, le client demande « pourquoi ? », je dois être capable de lui donner une justification. Or cela, on y est pas du tout, et je pense qu’il est impossible d’y arriver. Pour moi, la clé du deep learning est de considérer un nombre énorme de corrélations complexes qui échappent justement à l’appréciation humaine. La décision est basée sur la comparaison entre le cas particulier et un nombre immense de cas emmagasinés par le système : cette comparaison ne peut pas s’exprimer à l’aide de concepts disponibles dans l’entendement humain.
RPP – Avant d’en venir aux aspects plus prospectifs de l’entretien, pouvez-vous dire quelques mots sur la robotique intelligente, et ce qu’elle apporte au projet de l’IA. Constitue-t-elle encore une autre famille, ou n’est-elle qu’un domaine d’application ?
Daniel Andler – Les deux. D’une part, on étudie la possibilité de brancher l’IA sur un robot pour piloter celui-ci de manière de plus en plus intelligente. C’est la prolongation d’une longue tradition, mais elle est limitée par le fait que le robot lui-même travaille dans un espace borné, que la bande passante pour le robot est relativement étroite, ce qui réduit considérablement la complexité des informations qu’il va recevoir. Malgré cela, on va assurément vers des robots de plus en plus intelligents. Mais d’autre part, ce qui passionne des chercheurs comme Mehdi Khamassi, c’est le projet de concevoir, grâce au robot, le projet d’une IA qui soit originairement incarnée. C’est une discussion ancienne dans le champ des sciences cognitives : l’incarnation détiendrait les clefs d’une intelligence réelle. Pour ma part, je pense que cette approche conduira à des projets intéressants, mais je suis sceptique s’il s’agit de pousser jusqu’au bout l’analogie de l’incarnation. Un robot couplé à une IA, ce n’est pas la même chose qu’un organisme. Le lien de l’IA au robot n’aura pas la dimension affective, vitale, de mon lien avec mon corps.
RPP – Et si on repose la question de manière plus théorique, en imaginant non plus d’implémenter l’IA sur un robot classique, mais de construire un robot qui se développerait lui-même comme un organisme ? Un cycle du silicium suppléant celui de l’ADN, comme l’écrit l’écrivain Romain Lucazeau dans son roman La nuit du faune[2] ?
Daniel Andler – Les systèmes biologiques ont des propriétés encore mal comprises, mais elles le sont tout de même suffisamment pour mesurer la distance infinie entre la biologie réelle et la biologie artificielle. Je ne me suis pas tenu au courant de l’actualité des programmes de vie artificielle, mais un certain nombre de résultats semblent indiquer qu’une vie fondée sur le silicium est impossible.
RPP – J’en viens à ce qui est peut-être le point central de votre livre : la critique du projet fondamental de l’intelligence artificielle, reproduire, ou simuler l’intelligence humaine. Celui-ci, jugez-vous, est vicié dès le départ, non pour des raisons techniques, mais pour des raisons philosophiques. Parce qu’il fait l’impasse sur les problèmes que pose le concept d’intelligence.
Daniel Andler – Je suis obligé de combattre à la fois les optimistes de l’intelligence artificielle et les psychologues qui s’obstinent à penser l’intelligence humaine comme résolution des problèmes. Cela m’a conduit à raisonner en deux étapes. La première, qui est je crois l’idée fondamentale de ma démonstration, est la distinction entre problème et situation. On la trouve aussi chez Hubert Dreyfus, mais je me suis efforcé de la radicaliser en montrant plus clairement pourquoi la situation n’est pas le problème, et aussi pourquoi l’IA ne peut que résoudre des problèmes, pourquoi les spécialistes font une erreur de catégorie en pensant pouvoir doter un système IA d’un sens de la situation. Qu’est-ce qu’une situation ? En tant qu’êtres humains, nous sommes, comme tous les êtres biologiques d’ailleurs, très familiers de la situation. Nous sommes spontanément en situation, nous n’avons pas (en général) besoin qu’on nous apprenne à décrire une situation, qu’on nous explique le sens de la situation, nous y sommes immédiatement sensibles. L’intelligence fait que je vais naturellement et directement m’en tenir aux traits qui me paraissent pertinents pour la situation : elle consiste même justement en cela. On ne peut en prendre la mesure que dans les cas singuliers. À cela, le spécialiste de l’IA va répondre : donnez-moi les traits pertinents et je modélise l’action en situation. Mais en faisant cela, il ne réalise pas que le travail a déjà été fait : donner les traits pertinents de la situation, c’est partir de ce qu’a déjà fait l’intelligence humaine, de l’effort qu’a fait l’intelligence humaine pour transformer la situation en problème, et chercher à le reproduire.
RPP – Les chercheurs en IA parlent souvent de ce qu’ils appellent le problème du sens commun : il faudrait doter l’IA de sens commun, c’est-à-dire ne pas avoir besoin de lui expliquer certains liens qui sont évidents pour une intelligence humaine. Mais cette façon de poser le problème ne vous convainc pas.
Daniel Andler – Les chercheurs en IA ont très tôt remarqué que les connaissances spécialisées relatives à un domaine ou à une catégorie de tâches ne suffisaient pas à les réaliser : elles doivent être complétées par une compréhension si largement partagée de la manière dont les choses matérielles et humaines s’organisent qu’on ne s’aperçoit pas initialement de leur nécessité et qu’on n’a pas songé à en doter les modèles. L’IA est en quête d’un moyen d’identifier ces connaissances et de les organiser en sorte que les informations pertinentes soient immédiatement accessibles. Je pense que cette quête est vaine. Le sens commun désigne deux choses différentes : une collection de faits que nous acquérons par expérience tout au long de la vie mais surtout dans les premières années, et l’aptitude à aborder une situation d’une manière qui, sauf exception, permet d’y faire face — quelque chose en effet comme un « sens » des situations. Constituer la collection de faits ne me semble pas conceptuellement impossible — je me contente d’observer que le problème est considéré par nombre de spécialistes comme non résolu. Mais la deuxième composante du sens commun me paraît inaccessible à l’IA, pour la raison évoquée.
RPP – Vous excluez donc la possibilité que l’IA reproduise l’intelligence humaine. Vous doutez par ailleurs de la capacité de l’IA à produire une super intelligence, c’est-à-dire une intelligence qui n’aurait pas forcément les traits de l’intelligence humaine, mais dépasserait celle-ci en puissance et en efficacité. Mais pas de celle de l’IA à produire des systèmes très puissants. Quels seraient les traits de ces dispositifs ? A quoi seraient-ils utilisés ?
Daniel Andler – On pourrait imaginer des systèmes qui soient capables de prendre connaissance d’un problème de société très complexe, et de proposer une solution sous forme d’une politique publique précisée de A à Z. Par exemple, comment aménager la situation de l’eau potable dans tel pays africain ? Si dans un nombre suffisant de cas des systèmes d’IA produisaient pour ce type de problème complexe (« wicked » comme on dit parfois) des solutions jugées, à tort ou à raison, bonnes voire excellentes, on en viendrait peut-être à leur confier des pans entiers de l’activité d’un pays, pourquoi pas jusqu’à la dissuasion nucléaire ? Et de leur faire aveuglément confiance, ce qui compromettrait la possibilité même d’un débat politique.
RPP – Ce que vous dites me fait penser à un roman de John Brunner publié dans les années 60 : Tous à Zanzibar. C’est un roman polyphonique, qui se déroule vers 2020, et qui est d’ailleurs assez visionnaire sur des questions comme le changement climatique, la génétique, la guerre froide entre les Etats-Unis et la Chine. Un des éléments de l’intrigue est l’ordinateur surpuissant, Shalmaneser, possédé par une grande multinationale américaine. Un moment, cette multinationale prend littéralement le contrôle d’un petit pays d’Afrique, et confie à l’ordinateur la charge de l’optimiser. Or, ce petit pays est extraordinairement non violent du fait d’une religion locale, et fonctionne avec peu de police, d’autorité, etc, et l’ordinateur refuse ce paramètre. Il juge le pays non conforme.
Daniel Andler – C’est exactement ça. Ce roman a été écrit dans les années 60. Cela conduit évidemment à la déresponsabilisation, avec un risque de catastrophe, aggravé par le fait que le système s’est basé sur des stratégies passées d’humains, que sa réussite ou son échec peuvent être liés au hasard, à la chance, à des paramètres non aperçus.… Je me méfie plus généralement du mantra de faciliter la vie des gens. Ce n’est pas forcément toujours une bonne chose, et il n’est pas facile de décider si c’est le cas. Le risque de perte de capacités pour l’humain est réel. Et comme l’IA se base sur les capacités humaines, des capacités de l’IA également.
RPP – Vous évoquez aussi le côté imprévisible d’un système d’IA complexe.
Daniel Andler – Oui, c’est le second point. Le contrôle a priori sur un système d’IA très complexe est peut-être impossible. D’abord, parce qu’il semble très difficile d’imposer des valeurs éthiques pour un tel système. Mais plus encore, parce que la complexité des systèmes fait justement de leurs « valeurs » des propriétés quasi émergentes, qu’on ne peut contrôler a priori.
RPP – Ce qui nous amène à la question de l’éthique de l’IA, sur laquelle vous portez un regard un peu mitigé.
Daniel Andler – Disons que je pense que l’attention portée désormais à l’éthique dans la communauté IA et dans les milieux politiques est globalement une bonne chose, mais qu’elle prend souvent la forme de catalogues pieux (chartes, listes de résolutions), qui n’abordent pas les vrais problèmes. Le principal risque serait de penser qu’il suffit d’une charte éthique, alors que les principes sont toujours appliqués en situation, alors qu’il est, je l’ai dit, très difficile d’anticiper ce qui peut se passer en situation. L’autre problème est qu’une éthique de l’IA in abstracto ne veut pas dire grand-chose. Il y a peut-être des questions générales propres à l’IA, mais il y a aussi surtout des problèmes éthiques locaux, qui sont chaque fois ceux du domaine auquel s’applique l’IA (par exemple le domaine de la santé, ou de l’éducation, ou de la justice, ou de la guerre). Mais comment concilier une éthique générale de l’IA avec la multiplicité des éthiques et régulations locales des domaines concernés ? Les problèmes éthiques de l’IA ne doivent-ils pas plutôt devenir des branches de ces éthiques locales ?
RPP – Depuis quelques mois, les appels à la régulation mondiale se multiplient. Certains évoquent les risques existentiels que l’IA pourrait faire courir à l’humanité. L’homme d’affaires Sam Altman, PDG d’Open AI, a ainsi appelé à la création d’une agence sur le modèle de l’Agence internationale de l’énergie atomique (AIEA) pour l’IA. De plus en plus de laboratoires choisissent de limiter l’accès aux dispositifs qu’ils développement et à leur code, au point qu’on se demande si on ne va pas aboutir à des laboratoires de recherche en IA classés P3, P4. Mais le discours des grands acteurs du numérique est ambigu. D’une part, ceux-ci développent et commercialisent des solutions techniques reposant sur l’IA, et d’autre part, ils alertent sur les risques que celles-ci suscitent – pour en conserver le monopole ?
Daniel Andler – L’analogie avec la bombe atomique est devenue très fréquente. Christopher Nolan la fait implicitement dans son film « Oppenheimer » : dans une scène inventée, Oppenheimer tente d’assassiner son professeur en utilisant une pomme empoisonnée au cyanure – or, si on en croit la légende, c’est par ce moyen qu’Alan Turing, le père de l’informatique et de l’IA, se serait suicidé. La base de l’analogie pourrait être celle-ci. De nos jours, les connaissances pour fabriquer une bombe atomique sont accessibles. Ce qui en limite la possibilité, c’est l’accès au matériau. Quel pourrait en être l’équivalent en matière d’IA ? On pourrait dire la puissance de calcul, ou (c’est la réponse courante) les data. Mais l’analogie ne tient pas sur le long terme, car le progrès technique va probablement permettre de réduire de plusieurs ordres de grandeur la puissance de calcul et la volume de data nécessaires.
Et plus généralement, l’analogie dans son ensemble est trompeuse. La dangerosité de la bombe atomique était prouvée, évidente. Est-ce le cas pour l’IA ? N’est-on pas en train d’en surestimer autant les dangers que l’efficacité ? Il y a une sorte de pétition de principe, qui fait qu’on évoque toujours la régulation de l’IA comme si on croyait fermement à la possibilité de la superintelligence, voire à son avènement prochain. Comme vous l’avez dit, les GAFA ont sans doute intérêt à nous y faire croire, pour des raisons économiques, mais peut-être aussi tout simplement pour des raisons publicitaires et d’ego. N’y-a-t-il pas quelque chose de grisant à se présenter comme détenteur d’une technologie qui pourrait détruire le monde ? Par ses cris d’alarme, Sam Altman se pose un peu comme l’être humain le plus important de l’histoire. Mais quand on aborde l’IA par ce biais, on passe à côté de beaucoup de problèmes concrets, de risques réels, sectoriels, qu’il faudrait réguler.
RPP – Par exemple, l’accroissement des moyens de surveillance, avec les micro-drones, ou les armes autonomes.
Daniel Andler – Oui, tout à fait. Ou toutes les questions liées à l’emploi, à la perte des compétences. À force de voir la superintelligence comme l’horizon de l’IA, de réfléchir aux risques liés à son autonomie, on oublie que c’est une décision humaine que de chercher à la rendre plus autonome. Les recherches sont explicitement orientées vers cela. La question se pose donc en amont. Que voulons-nous de l’IA ? Pourquoi construisons-nous des systèmes IA ? Voulons-nous vivre dans un monde dans lequel l’IA est de plus en plus indispensable ?
RPP – Quelle serait l’alternative ? Comment pourrait-on envisager un mode de développement différent de l’IA ?
Daniel Andler – Je pense qu’il faudrait plutôt atteler les labos d’IA à des lieux où les problèmes réels de l’humanité sont attaqués, faire de l’IA un adjuvant, au service de problèmes et de buts définis hors d’elle. Ces problèmes peuvent aussi être théoriques. Nous avons parlé d’Alphafold tout à l’heure. L’IA a un vrai potentiel pour accompagner la recherche scientifique, dans bien des disciplines. Mais il ne faudrait pas que les succès de l’IA pour résoudre des problèmes scientifiques conduisent à un empirisme pur qui finit par considérer la science entière comme un traitement des données, dans lequel la théorie n’a plus sa place. Quels que soient les succès de l’IA pour modéliser certains phénomènes (par exemple le repliement de protéines), la théorie reste selon moi indispensable. Dans d’autres domaines, le risque est du même ordre : coucher la problématique sur le lit de Procuste de l’IA, en se privant de formulations et de méthodes de résolution qui ne font pas sens pour l’IA, mais qui en font pour l’intelligence humaine.
Daniel Andler
Mathématicien et philosophe
Propos recueillis par Florian Forestier – #Leplusimportant
[1] Daniel Andler, p. 15.
[2] Romain Lucazeau, La nuit du faune, Albin Michel, 2021