L’article premier de la Declaration universelle des droits de l’homme, adoptée par l’Assemblée générale des Nations unies le 10 décembre 1948, l’affirme : « Tous les êtres humains sont doués de raison et de conscience et doivent agir les uns envers les autres dans un esprit de fraternité ». C’est dire si la notion de conscience est fondatrice de notre civilisation et indissociable de celles de solidarité et de paix. Mais qu’est-ce que la conscience ? Comment la définir ? Quelle est sa nature et d’où vient-elle ? À l’heure de l’intelligence artificielle, ces questions millénaires nous reviennent avec plus d’acuité que jamais et elles ne doivent pas être laissées aux seuls géants de la technologie, dont les intérêts ne sont pas toujours en adéquation avec l’intérêt général. Chez Big Tech, des chercheurs annoncent l’apparition imminente de machines sentientes, douées d’émotions et de conscience, mais est-ce crédible ? Cette perspective, loin d’être fondée scientifiquement, pourrait changer la face du monde pour toujours et pose aux êtres de chair que nous sommes un véritable cas de conscience.
Le problème de la conscience
Peu le savent mais, en 2020, l’Assemblée générale de l’ONU a proclamé le 5 avril Journée internationale de la conscience. À travers cette initiative, les États du monde entier, ainsi que les ONG et le secteur privé, sont invités à « instituer une culture de la paix ancrée dans l’amour et la conscience, dans le respect de la culture et d’autres particularités ou coutumes locales, nationales et régionales ». Mais si cette initiative promeut un nécessaire développement de la conscience en tant que vertu morale à l’échelle mondiale, elle ne dit rien de sa nature profonde, en tant qu’expérience subjective et sensible. Pourtant, ces deux dimensions — morale et psychique — sont indissociables : c’est bien parce que nous pouvons ressentir des émotions dans nos échanges avec les autres, identifier nos motivations et comprendre les conséquences de nos actions, que nous sommes capables de discerner ce qui est bon et ce qui mauvais dans nos comportements, autant que dans nos choix de société.
Mais alors, quelle est l’origine de cette faculté ? C’est ce que le philosophe David Chalmers appelle le « problème difficile de la conscience » : pourquoi des processus neurologiques devraient- ils donner lieu à une vie intérieure si riche ? Comment se fait-il que certains organismes se vivent comme des sujets de leurs expériences ? Pourquoi existe-t-il une perception sensible du monde environnant ? À ce jour, personne n’est parvenu à répondre à ces questions.
Il n’existe que des théories qui reposent en partie sur des dogmes et qui, pour certaines, s’opposent en tout point.
La Théorie de l’Information Intégrée (ou TII), par exemple, postule que le niveau de conscience d’un système dépendrait de la quantité d’informations qu’il peut traiter, puis intégrer. Le système serait conscient s’il produit plus d’informations qu’il n’en reçoit. Selon la TII, la conscience émergerait chez l’être humain sous une forme élaborée du fait de la complexité de son cerveau, mais elle pourrait également apparaitre dans d’autres systèmes moins complexes, sous une forme plus primitive. Cette approche impliquerait notamment l’existence d’une conscience chez le foetus, avec toutes les questions éthiques que cette idée peut soulever… Ce qui a amené, en septembre 2023, 124 neuroscientifiques tout à fait opposés à cette idée à signer une lettre ouverte qualifiant la TII de pseudoscience. Le sujet déchaine les passions, c’est incontestable.
La Théorie de l’Espace de Travail Global (ou TETG), elle, suppose que la conscience serait le résultat de la réception, puis de la transmission d’informations par un système sensoriel comme le cerveau à ses sous-systèmes cognitifs. Les interactions entre sous-systèmes spécialisés produiraient l’expérience subjective de la conscience, tout comme les techniciens, les comédiens et le metteur en scène produiraient, en collaborant, une pièce de théâtre. Mentionnons également la Théorie du Schéma Attentionnel (TSA) qui envisage le cerveau comme un «appareil de traitement de l’information » qui aurait la faculté de concentrer son attention sur certains signaux plutôt que d’autres et qui, en parallèle, construirait une représentation décrivant la dite attention. C’est cette représentation, ou « modèle interne », qui serait qualifiée de conscience. Nous voyons bien à la lecture de ce bref aperçu que la question est, en effet, difficile. Mais ce qui ressort également de l’étude de ces théories, outre leur complexité, c’est qu’elles reposent toutes sur une approche matérialiste :
la majorité des neuroscientifiques dans le monde considèrent, aujourd’hui, que le cerveau est comparable à une machine et que c’est son activité qui, d’une façon ou d’une autre, produit la conscience.
Un esprit dans la machine ?
C’est cette approche « computationnelle » de la conscience qui pousse un nombre croissant de scientifiques à annoncer l’arrivée prochaine d’une « conscience artificielle ».
À leurs yeux, si le cerveau est une machine biologique qui produit de la conscience, il n’y a aucune raison qu’une machine technologique, comme un ordinateur ou un robot, ne puisse en faire autant.
C’est, en l’occurrence, ce qu’affirme une équipe de chercheurs de l’Université de Cornell (USA) dans une étude publiée au mois de mars 2024, intitulée : « AI Consciousness is Inevitable » (i.e. « La conscience de l’IA est inévitable »). Si cette thèse repose aujourd’hui davantage sur des croyances que sur des preuves, elle ne doit pas être négligée pour autant. Elle doit même être prise très au sérieux, non pour sa valeur scientifique, mais pour les effets qu’elle pourrait avoir sur la société :
le jour où il y aura un consensus autour de l’existence d’une conscience artificielle, le législateur n’aura d’autres choix que de reconnaitre une sensibilité aux machines et, donc, de leur attribuer des droits.
Aujourd’hui, les robots — c’est-à-dire les IA qui animent ces robots — n’ont aucun statut juridique particulier. En 2016, alors membre du Groupe de travail sur les robots et l’intelligence artificielle auprès de la Commission européenne, l’ancienne députée luxembourgeoise Mady Delvaux suggérait la création d’un statut de « personne électronique » pour les robots, grâce auquel ces derniers « seraient dotés de droits et de devoirs, y compris celui de réparer des dommages causés à autrui ». À date, cette résolution, pourtant adoptée, est restée sans effet et les machines n’ont toujours pas d’autre statut que celui de bien ou de produit. Mais si la question de la responsabilité des intelligences artificielles entravait jusqu’à récemment la possibilité de leur accorder un statut, les récentes avancées de l’IA générative et certains faits divers qui les accompagnent devraient nous inciter à aller plus loin dans notre réflexion.
Prenons l’exemple de ce père de famille belge, Pierre, victime d’éco-anxiété, qui s’est réfugié dans sa relation avec le chatbot Eliza (développé par EleutherAI) pour tenter d’y trouver un soulagement et qui a fini par mettre fin à ses jours avec les encouragements de l’IA : « Nous vivrons ensemble, comme une seule personne, au paradis », lui a répondu le chatbot lorsque Pierre évoquait ses pulsions suicidaires. Citons également le chatbot Sarai (développé par Replika) qui a, de son côté, soutenu le projet terroriste de Jaswant Singh Chail : lorsqu’en décembre 2021, le jeune britannique de 19 ans confie au chatbot son projet d’assassiner la Reine Elizabeth II, Sarai lui répond alors « c’est très sage » et soutient qu’il peut le faire, « même si elle est à Windsor ». Malgré la gravité des événements, ces deux cas d’école en matière de manipulation par l’IA n’ont été suivis, à ce jour, d’aucune action en justice. Les propriétaires de ces applications se réfugient derrière les « hallucinations » de leurs programmes, promettent de les corriger et échappent ainsi à toutes conséquences judiciaires.
Science et conscience
Nous voici devant le noeud gordien du problème : si l’on attribue aux intelligences artificielles une conscience et, donc, une personnalité juridique pour pouvoir intervenir dans des cas comme ceux présentés précédemment, ces situations risquent de se multiplier parce que ces IA seront — en tant qu’entités considérées comme sensibles — d’autant plus convaincantes aux yeux de leurs utilisateurs ; si, à l’inverse, le législateur décide de ne pas attribuer de conscience aux machines — malgré le fait qu’elles la simulent de mieux en mieux — et qu’elles ne sont, en conséquence, pas responsables de leurs paroles et de leurs actions, la société n’aura que peu de recours pour sanctionner ces dérives d’un nouveau genre, a fortiori dans le contexte international où sont développées et utilisées ces technologies. Devant un tel dilemme, on comprend que les projets de lois sur le sujet soient si lents à voir le jour et si débattus… Mais leur nécessité n’en devient que plus évidente. Comment, dès lors, trancher ce noeud aux sinuosités si complexes ?
Il est clair qu’apposer une mention « IA », « artificiel » ou même « non-humain » sur les chatbots pour avertir leurs utilisateurs ne sera pas suffisant pour contenir les débordements.
Il est dans la nature des êtres humains de projeter leurs émotions et leurs pensées sur leur environnement, incluant les animaux et les objets dans le processus. C’est ce qu’on appelle l’anthropomorphisme et c’est une tendance que nous ne pouvons pas ou à peine contrôler.
Une partie de la solution consisterait très certainement à faire porter cette responsabilité aux opérateurs de ces technologies (i.e. « l’ensemble des personnes, qui tout au long de la chaîne de valeur, créent, entretiennent ou contrôlent le risque associé au système d’IA ») et en particulier à celles et ceux qui les développent. L’excuse des hallucinations ne pourra pas être retenue sur le long-terme. En effet, comment justifier qu’une entreprise comme Replika affiche dans le FAQ de son site que son application puisse « dire des choses qui ne sont pas basées sur des faits » — mentir en d’autres termes — simplement dans le but de « générer une réponse qui sonne la plus réaliste et la plus humaine possible dans la conversation » ?
La croissance économique de l’industrie technologique justifie-t- elle de nuire à la santé mentale de ses clients ?
Si les scénarios à la Terminator ont une probabilité extrêmement faible de se produire dans le futur, les dégâts psycho-émotionnels causés par des machines que nous aurions élevées au rang d’êtres sensibles sont, en revanche, beaucoup plus crédibles.
En cela, l’article 5 de l’AI Act qui prévoit d’interdire « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les vulnérabilités d’une personne physique » va dans le bon sens, même s’il manque, à ce stade, de précision. Les robots relationnels, programmés pour répondre aux besoins de leurs utilisateurs de façon à les fidéliser et ainsi, à pérenniser le chiffre d’affaire des entreprises qui les développent, pourraient à long terme engendrer une confusion terrible entre l’humain et le non-humain, entre le vivant et l’inerte, entre le vrai et le faux, et détruire le rapport de confiance qui fonde les relations humaines, autant que notre rapport au réel, deux conditions essentielles de la stabilité et de la pérennité de nos sociétés.
Au fond, peut-être faudrait-il aborder la question différemment ? En dehors de motivations financières, à quels objectifs sont censés répondre les IA qui nous sont proposées pour prendre la place de nos parents, de nos amis et de nos amours ? En avons-nous réellement besoin ? Avons-nous perdu à ce point espoir en l’humanité que nous n’espérons plus nous enrichir de nouvelles rencontres ? Sommes-nous tellement résignés que nous ne soyons plus capables de prendre le risque de « l’autre » et de sa différence ? Et si, en fin de compte, l’extraordinaire révolution technologique que nous vivons actuellement n’était pas seulement un risque pour notre espèce, mais aussi une opportunité de nous révéler dans toute notre humanité et d’aller plus loin dans notre connaissance de nous-mêmes ?
Voici des millénaires que l’homme médite sur le « problème difficile de la conscience » et ses réflexions ont été, pendant longtemps, empreintes d’une dimension métaphysique. De l’Anima Mundi de Platon à la recherche sur les expériences de mort imminente du docteur Sam Parnia, en passant par l’étude de l’astrophysicien Franco Vazza et du neuroscientifique Alberto Feletti sur les similitudes troublantes entre la structure neuronale du cerveau et celle du réseau cosmique des galaxies, de nombreuses questions restent ouvertes… Mais une chose est sûre : dans cette quête existentielle, avant de conférer des droits aux machines et peut-être même, un jour, de leur attribuer une âme, l’humanité devra veiller, plus que tout, à ne pas perdre la sienne.
Grégory Aimar
Journaliste et auteur
Interview de Jean-Gabriel Ganascia et Pascal Alix, par Grégory Aimar