La question du droit des robots, des chatbots et des systèmes d’’intelligence artificielle est complexe et relativement inédite. Elle se situe à la croisée de plusieurs disciplines — droit, informatique, neurosciences, philosophie… — et nous demandent de sortir de notre zone de confort pour embrasser l’ensemble des problématiques qu’elle soulève. Ici, les postures extrêmes, technophiles ou technophobes, doivent être dépassées. La réalité n’est pas binaire, contrairement au langage informatique qui anime ces technologies… Pour nous accompagner dans nos réflexions sur ce thème, Jean-Gabriel Ganascia, informaticien et philosophe, et Pascal Alix, avocat et chercheur en droit de l’IA, nous livrent leurs points de vue éclairés et éclairants.
Grégory Aimar – Avec les progrès actuels de l’intelligence artificielle, de plus en plus de chercheurs annoncent l’arrivée imminente de machines « conscientes ». Dans un article récent, une équipe de chercheurs de l’Université de Cornell (USA) affirme que la conscience de l’IA serait « inévitable ». Une autre étude, de l’Université de San Diego cette fois, conclut même que les chatbots se montreraient plus empathiques que les humains dans un contexte de consultation médicale. Que pensez-vous de ces affirmations ?
Jean-Gabriel Ganascia — Tout dépend de ce qu’on entend par « conscience des machines » ! Le terme est éminemment polysémique. Le premier aspect, c’est celui de la projection : les interfaces homme-machine, aujourd’hui, sont conçues sur ce mécanisme théorisé par le philosophe Daniel Denett : nous attribuons des intentions aux machines, spontanément. On peut considérer cela comme un type de conscience, mais ce n’est pas une conscience au sens métaphysique du terme. Le deuxième aspect, c’est celui de la réflexion. Nous parlons alors de conscience au sens étymologique, le fait de se regarder soi-même : ce n’est pas impossible qu’on crée des machines dotées de certaines capacités de réflexion et capables d’évoluer en fonction de leurs expériences. Beaucoup de travaux en neurosciences portent là-dessus. Le troisième aspect, c’est celui des émotions : est-ce qu’une machine peut avoir des sensations et des émotions associées, et à partir de là, un désir qui serait de satisfaire les émotions positives ? C’est la grande question ! Aujourd’hui, nous n’avons aucun élément qui permette de supposer que les machines puissent ressentir des émotions.
Pascal Alix — Ces affirmations reposent sur les dogmes de la cybernétique, initiée par Norbert Wiener. Aujourd’hui, on pourrait opposer deux visions de l’IA : une vision matérialiste, utilitariste, plutôt américaine et une autre, plus humaniste, plus européenne me semble-t-il, même si j’ai conscience que cette dichotomie est assez réductrice. Dès le départ dans ce champ de recherche, il y a eu une anthropomorphisation volontaire des systèmes artificiels dans un but « marketing », mais l’on oublie que la conscience a besoin d’incarnation, de vécu, je ne vois pas comment une conscience pourrait exister sans cette incarnation. La conscience qui sortirait des algorithmes, je n’y crois pas.
Grégory Aimar – Considérant la place grandissante qu’occupe l’intelligence artificielle dans notre quotidien, certaines personnalités plaident pour la création d’un statut juridique particulier pour les machines : celui de « personne robot » ou de « personne électronique ». Pensez-vous que cela soit une bonne idée ?
JGG — En effet, l’avocat Alain Bensoussan travaille là-dessus depuis longtemps. Il a notamment influencé la proposition de Mady Delvaux auprès de la Commission européenne. Quand on regarde le détail des arguments : il ne dit pas que les robots ont une conscience, mais qu’il faut défendre les victimes et pour cela, utiliser une fiction juridique en donnant une personnalité morale aux machines. Personnellement, je trouve que c’est une mauvaise idée. Je pense qu’il faut poursuivre l’enquête jusqu’au bout, sinon on ne saura pas d’où vient le problème. Il faut se demander qui est responsable pour corriger l’erreur et c’est toujours un humain ! Si jamais l’on imaginait que les machines ont une conscience, à ce moment-là nous aurions des devoirs vis-à-vis d’elles et l’on pourrait se plaindre de maltraitance à leur encontre, comme on se plaint de celle envers les animaux…
PA — Je suis également en désaccord avec cette proposition. Pour moi ce n’est pas une bonne idée. Déjà, d’un point de vue philosophique, attribuer un statut de personne à une « entité artificielle » me pose un problème. La notion de personne est indissociable de la notion de conscience, d’intentionnalité, de rapport au monde… La personnalité juridique du système d’intelligence artificielle alimenterait une grande confusion et pourrait, de ce fait, dévaloriser ce qui fait la singularité de l’être humain. Sur un plan éthique, cela brouillerait nos repères et affaiblirait notre sens critique. Sur le plan juridique, la création d’une personne électronique poserait en outre beaucoup de difficultés. On devrait lui conférer des droits et des obligations, comme on le fait avec une personne morale — État, collectivité, société, association… — , ce qui supposerait de lui permettre d’ester en justice (i.e. de « saisir une juridiction pour faire valoir ses droits ou défendre ses intérêts ») : vous pourriez alors être poursuivi par votre robot si vous lui causez un préjudice…Mais surtout, la création d’un tel statut serait un écran entre l’être humain qui subit un préjudice du fait d’un robot et l’entreprise qui l’a conçu. Ce serait une manière de protéger les industriels.
Grégory Aimar – Prenons un cas pratique : le suicide en mars 2023 de Pierre, père de famille belge, qui s’est enfermé dans une « relation » avec le chatbot Eliza et qui s’est vu encouragé par cette dernière à passer à l’acte, lorsqu’il lui a partagé ses pulsions suicidaires : à ce jour, il n’y a eu aucune suite juridique à l’encontre de la société qui produit ce chatbot (EleutherAI). Selon vous, à qui appartient la responsabilité dans cette affaire ?
JGG — La responsabilité incombe au concepteur, mais c’est une responsabilité limitée… Il ne faut pas négliger la dimension pathologique chez les êtres humains eux-mêmes ! Les machines sont conçues pour recevoir les projections humaines, c’est la manipulation des émotions qui pose problème. D’ailleurs, le nom « Eliza » fait référence au tout premier chatbot conçu par l’informaticien Joseph Weizenbaum et a justement donné son nom à « l’effet Eliza », cette tendance que nous avons à projeter sur les machines des intentions humaines. Weizenbaum nous a mis en garde contre ça.
PA — Aujourd’hui, il n’existe pas, sur le plan juridique, de régime de responsabilité spécifique dans le domaine de l’IA. Déjà, compte tenu du caractère international des relations entre les acteurs du domaine, il faudrait déterminer la règle applicable. Il s’agit d’un premier niveau de complexité. Ensuite, il y a une pluralité d’acteurs : concepteur, déployeur, fournisseur… Il faudrait pouvoir déterminer le ou les responsables. Si l’on s’appuie sur les règles de droit commun de la responsabilité civile, il faudrait déterminer qui a commis une faute et s’il existe un lien de causalité entre cette faute et le préjudice subi. Les choses vont évoluer avec l’entrée en vigueur de l’AI Act qui a un caractère extraterritorial, comme le RGPD. La veuve pourrait, dans ce cas-là, invoquer le non-respect par le fournisseur et/ou le déployeur des obligations énoncées dans les articles 8 et suivant de l’AI Act. Mais ce ne sera pas avant 2026 ou 2027… La solution n’est probablement pas seulement juridique.
Grégory Aimar – Nous voyons actuellement se multiplier les projets d’IA imitant les êtres humains, prétendant comprendre et même, pour certains, avoir des émotions : bots de compagnie (Replika), bots de défunts (HereAfter), des bots psychothérapeutes (Psychologist, CharacterAI)… Si le droit ne peut pas répondre à tous les défis posés par ces technologies, quels sont les leviers sur lesquels nous pouvons agir pour éviter les dérives ?
JGG — Les relations interhumaines vont changer avec ces outils et je ne suis pas sûr qu’on puisse réguler ça. Les interfaces homme-machine sont justement conçus pour encourager les phénomènes de projection. Les chatbots permettent aux grandes entreprises d’avoir une relation commerciale directe avec leurs clients. Ça jouera un rôle énorme sur le plan de l’influence économique du numérique, dans notre vie de tous les jours. Je pense que le problème tient davantage à l’instrumentalisation de ces phénomènes de projection qui créent des habituations douces, des addictions, etc. La société peut être amenée à évoluer, il faut qu’ on se forme en tant que citoyens.
PA — Il faut aborder le problème de façon multidisciplinaire et sensibiliser le public. Les rapports, aujourd’hui, sous-estiment ces problèmes d’ordre anthropologique. Concernant les applications comme HereAfter, on touche à un déni de la mort, qui rejoint les projets transhumanistes. On abandonne l’approche culturelle de la mort, avec ses rituels, qui considère la mort comme faisant partie du cycle naturel du vivant, pour entrer dans un déni technologique.
Grégory Aimar – Ne serait-il pas envisageable, voire souhaitable, de produire une loi qui interdirait aux IA — chatbots ou robots — de prétendre avoir des attributs humains tels que les émotions, l’empathie ou encore la conscience, pour éviter toute confusion ?
JGG — Des lois qui interdiraient les machines qui ressemblent trop aux humains, je n’y crois pas, car ça impliquerait de remettre en cause tout ce qui existe dans le monde de l’IA aujourd’hui. Au mois de juin, le comité d’éthique du CNRS va publier un avis sur les robots émotionnels, auquel j’ai participé. Cet avis, initié et élaboré par Catherine Pelachaux en collaboration avec Patrice Debré, Christine Noiville et Raja Chatila, fera un certain nombre de recommandations sur les meilleures façons d’encadrer les relations entre humains et machines dans les années à venir.
PA — D’une certaine façon, elle existe déjà ! C’est l’article premier de la loi informatique et liberté : « L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. » On peut l’interpréter de différentes manières, mais il est bien question ici de ce qui fonde la nature humaine. C’est également implicite dans l’article 5 de l’AI Act, mais ce n’est pas suffisamment clair, il n’y a pas de jurisprudence aujourd’hui. Juridiquement rien ne s’oppose à une telle loi et ce serait, à mon sens, une bonne idée. Nous allons de toute façon vers une transformation de nos sociétés, avec des défis importants, mais au fond je pense que nous ferons les bons choix. J’ai confiance en l’homme !
Grégory Aimar,
Journaliste et auteur
Lien vers l’article « Les robots ont-ils un droit ? » par Grégory Aimar
https://www.revuepolitique.fr/les-robots-ont-ils-des-droits-2/