• Contact
  • Abonnez-vous
  • Contribuez
Panier / 0,00 €

Votre panier est vide.

Lire Le dernier numéroLe dernier numéro
Revue Politique et Parlementaire
  • Se connecter
S'abonner
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • La cité des débats
    • Faut-il avoir peur de l’avenir ?
    • Aimons-nous encore la liberté ?
    • Savoir, pouvoir et démocratie
    • S’engager au 21ème Siècle
  • Le printemps des techno
    • Edition 2023
    • Edition 2024
    • Edition 2025
  • Boutique
    • Les numéros
    • Abonnement
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • La cité des débats
    • Faut-il avoir peur de l’avenir ?
    • Aimons-nous encore la liberté ?
    • Savoir, pouvoir et démocratie
    • S’engager au 21ème Siècle
  • Le printemps des techno
    • Edition 2023
    • Edition 2024
    • Edition 2025
  • Boutique
    • Les numéros
    • Abonnement
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
Aucun résultat
Voir tous les résultats
dans Science et technologie

Les robots ont-ils des droits ?

Interview de Jean-Gabriel Ganascia & Pascal Alix

ParGrégory Aimar
17 mai 2024
Les robots ont-ils des droits ?

La question du droit des robots, des chatbots et des systèmes d’’intelligence artificielle est complexe et relativement inédite. Elle se situe à la croisée de plusieurs disciplines — droit, informatique, neurosciences, philosophie… — et nous demandent de sortir de notre zone de confort pour embrasser l’ensemble des problématiques qu’elle soulève. Ici, les postures extrêmes, technophiles ou technophobes, doivent être dépassées. La réalité n’est pas binaire, contrairement au langage informatique qui anime ces technologies…  Pour nous accompagner dans nos réflexions sur ce thème, Jean-Gabriel Ganascia, informaticien et philosophe, et Pascal Alix, avocat et chercheur en droit de l’IA, nous livrent leurs points de vue éclairés et éclairants.


Grégory Aimar – Avec les progrès actuels de l’intelligence artificielle, de plus en plus de chercheurs annoncent l’arrivée imminente de machines « conscientes ». Dans un article récent, une équipe de chercheurs de l’Université de Cornell (USA) affirme que la conscience de l’IA serait « inévitable ». Une autre étude, de l’Université de San Diego cette fois, conclut même que les chatbots se montreraient plus empathiques que les humains dans un contexte de consultation médicale. Que pensez-vous de ces affirmations ?

Jean-Gabriel Ganascia — Tout dépend de ce qu’on entend par « conscience des machines » ! Le terme est éminemment polysémique. Le premier aspect, c’est celui de la projection : les interfaces homme-machine, aujourd’hui, sont conçues sur ce mécanisme théorisé par le philosophe Daniel Denett : nous attribuons des intentions aux machines, spontanément. On peut considérer cela comme un type de conscience, mais ce n’est pas une conscience au sens métaphysique du terme. Le deuxième aspect, c’est celui de la réflexion. Nous parlons alors de conscience au sens étymologique, le fait de se regarder soi-même : ce n’est pas impossible qu’on crée des machines dotées de certaines capacités de réflexion et capables d’évoluer en fonction de leurs expériences. Beaucoup de travaux en neurosciences portent là-dessus. Le troisième aspect, c’est celui des émotions : est-ce qu’une machine peut avoir des sensations et des émotions associées, et à partir de là, un désir qui serait de satisfaire les émotions positives ? C’est la grande question ! Aujourd’hui, nous n’avons aucun élément qui permette de supposer que les machines puissent ressentir des émotions.

Pascal Alix — Ces affirmations reposent sur les dogmes de la cybernétique, initiée par Norbert Wiener. Aujourd’hui, on pourrait opposer deux visions de l’IA : une vision matérialiste, utilitariste, plutôt américaine et une autre, plus humaniste, plus européenne me semble-t-il, même si j’ai conscience que cette dichotomie est assez réductrice. Dès le départ dans ce champ de recherche, il y a eu une anthropomorphisation volontaire des systèmes artificiels dans un but « marketing », mais l’on oublie que la conscience a besoin d’incarnation, de vécu, je ne vois pas comment une conscience pourrait exister sans cette incarnation. La conscience qui sortirait des algorithmes, je n’y crois pas.

Grégory Aimar – Considérant la place grandissante qu’occupe l’intelligence artificielle dans notre quotidien, certaines personnalités plaident pour la création d’un statut juridique particulier pour les machines : celui de « personne robot » ou de « personne électronique ». Pensez-vous que cela soit une bonne idée ?

JGG — En effet, l’avocat Alain Bensoussan travaille là-dessus depuis longtemps. Il a notamment influencé la proposition de Mady Delvaux auprès de la Commission européenne. Quand on regarde le détail des arguments : il ne dit pas que les robots ont une conscience, mais qu’il faut défendre les victimes et pour cela, utiliser une fiction juridique en donnant une personnalité morale aux machines. Personnellement, je trouve que c’est une mauvaise idée. Je pense qu’il faut poursuivre l’enquête jusqu’au bout, sinon on ne saura pas d’où vient le problème. Il faut se demander qui est responsable pour corriger l’erreur et c’est toujours un humain ! Si jamais l’on imaginait que les machines ont une conscience, à ce moment-là nous aurions des devoirs vis-à-vis d’elles et l’on pourrait se plaindre de maltraitance à leur encontre, comme on se plaint de celle envers les animaux…

PA — Je suis également en désaccord avec cette proposition. Pour moi ce n’est pas une bonne idée. Déjà, d’un point de vue philosophique, attribuer un statut de personne à une « entité artificielle » me pose un problème. La notion de personne est indissociable de la notion de conscience, d’intentionnalité, de rapport au monde… La personnalité juridique du système d’intelligence artificielle alimenterait une grande confusion et pourrait, de ce fait, dévaloriser ce qui fait la singularité de l’être humain. Sur un plan éthique, cela brouillerait nos repères et affaiblirait notre sens critique. Sur le plan juridique, la création d’une personne électronique poserait en outre beaucoup de difficultés. On devrait lui conférer des droits et des obligations, comme on le fait avec une personne morale — État, collectivité, société, association… — , ce qui supposerait de lui permettre d’ester en justice (i.e. de « saisir une juridiction pour faire valoir ses droits ou défendre ses intérêts ») : vous pourriez alors être poursuivi par votre robot si vous lui causez un préjudice…Mais surtout, la création d’un tel statut serait un écran entre l’être humain qui subit un préjudice du fait d’un robot et l’entreprise qui l’a conçu. Ce serait une manière de protéger les industriels.

Grégory Aimar – Prenons un cas pratique : le suicide en mars 2023 de Pierre, père de famille belge, qui s’est enfermé dans une « relation » avec le chatbot Eliza et qui s’est vu encouragé par cette dernière à passer à l’acte, lorsqu’il lui a partagé ses pulsions suicidaires : à ce jour, il n’y a eu aucune suite juridique à l’encontre de la société qui produit ce chatbot (EleutherAI). Selon vous, à qui appartient la responsabilité dans cette affaire ?

JGG — La responsabilité incombe au concepteur, mais c’est une responsabilité limitée… Il ne faut pas négliger la dimension pathologique chez les êtres humains eux-mêmes ! Les machines sont conçues pour recevoir les projections humaines, c’est la manipulation des émotions qui pose problème. D’ailleurs, le nom « Eliza » fait référence au tout premier chatbot conçu par l’informaticien Joseph Weizenbaum et a justement donné son nom à « l’effet Eliza », cette tendance que nous avons à projeter sur les machines des intentions humaines. Weizenbaum nous a mis en garde contre ça.

PA — Aujourd’hui, il n’existe pas, sur le plan juridique, de régime de responsabilité spécifique dans le domaine de l’IA. Déjà, compte tenu du caractère international des relations entre les acteurs du domaine, il faudrait déterminer la règle applicable. Il s’agit d’un premier niveau de complexité. Ensuite, il y a une pluralité d’acteurs : concepteur, déployeur, fournisseur… Il faudrait pouvoir déterminer le ou les responsables. Si l’on s’appuie sur les règles de droit commun de la responsabilité civile, il faudrait déterminer qui a commis une faute et s’il existe un lien de causalité entre cette faute et le préjudice subi. Les choses vont évoluer avec l’entrée en vigueur de l’AI Act qui a un caractère extraterritorial, comme le RGPD. La veuve pourrait, dans ce cas-là, invoquer le non-respect par le fournisseur et/ou le déployeur des obligations énoncées dans les articles 8 et suivant de l’AI Act. Mais ce ne sera pas avant 2026 ou 2027… La solution n’est probablement pas seulement juridique.

Grégory Aimar – Nous voyons actuellement se multiplier les projets d’IA imitant les êtres humains, prétendant comprendre et même, pour certains, avoir des émotions : bots de compagnie (Replika), bots de défunts (HereAfter), des bots psychothérapeutes (Psychologist, CharacterAI)… Si le droit ne peut pas répondre à tous les défis posés par ces technologies, quels sont les leviers sur lesquels nous pouvons agir pour éviter les dérives ?

JGG — Les relations interhumaines vont changer avec ces outils et je ne suis pas sûr qu’on puisse réguler ça. Les interfaces homme-machine sont justement conçus pour encourager les phénomènes de projection. Les chatbots permettent aux grandes entreprises d’avoir une relation commerciale directe avec leurs clients. Ça jouera un rôle énorme sur le plan de l’influence économique du numérique, dans notre vie de tous les jours. Je pense que le problème tient davantage à l’instrumentalisation de ces phénomènes de projection qui créent des habituations douces, des addictions, etc. La société peut être amenée à évoluer, il faut qu’ on se forme en tant que citoyens.

PA — Il faut aborder le problème de façon multidisciplinaire et sensibiliser le public. Les rapports, aujourd’hui, sous-estiment ces problèmes d’ordre anthropologique. Concernant les applications comme HereAfter, on touche à un déni de la mort, qui rejoint les projets transhumanistes. On abandonne l’approche culturelle de la mort, avec ses rituels, qui considère la mort comme faisant partie du cycle naturel du vivant, pour entrer dans un déni technologique.

Grégory Aimar – Ne serait-il pas envisageable, voire souhaitable, de produire une loi qui interdirait aux IA — chatbots ou robots — de prétendre avoir des attributs humains tels que les émotions, l’empathie ou encore la conscience, pour éviter toute confusion ?

JGG — Des lois qui interdiraient les machines qui ressemblent trop aux humains, je n’y crois pas, car ça impliquerait de remettre en cause tout ce qui existe dans le monde de l’IA aujourd’hui. Au mois de juin, le comité d’éthique du CNRS va publier un avis sur les robots émotionnels, auquel j’ai participé. Cet avis, initié et élaboré par Catherine Pelachaux en collaboration avec Patrice Debré, Christine Noiville et Raja Chatila, fera un certain nombre de recommandations sur les meilleures façons d’encadrer les relations entre humains et machines dans les années à venir.

PA — D’une certaine façon, elle existe déjà ! C’est l’article premier de la loi informatique et liberté : « L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. » On peut l’interpréter de différentes manières, mais il est bien question ici de ce qui fonde la nature humaine. C’est également implicite dans l’article 5 de l’AI Act, mais ce n’est pas suffisamment clair, il n’y a pas de jurisprudence aujourd’hui. Juridiquement rien ne s’oppose à une telle loi et ce serait, à mon sens, une bonne idée. Nous allons de toute façon vers une transformation de nos sociétés, avec des défis importants, mais au fond je pense que nous ferons les bons choix. J’ai confiance en l’homme !

Grégory Aimar,
Journaliste et auteur

Lien vers l’article « Les robots ont-ils un droit ? » par Grégory Aimar

https://www.revuepolitique.fr/les-robots-ont-ils-des-droits-2/

Grégory Aimar

Journaliste et auteur de livres, d'articles, de scénarios et de documentaires, Grégory Aimar travaille particulièrement sur les questions qui portent sur l'avenir de l'humanité. Ses thèmes de prédilection : la technologie, la science, l'écologie et la spiritualité.

Les derniers articles

PS : Un revers aussi pour François Hollande

ParCarole Barjon

L’échec de Nicolas Mayer-Rossignol face à Olivier Faure cache aussi celui de l’ancien président de la République socialiste qui poussait...

Arnaud Benedetti

L’édito d’Arnaud Benedetti

ParArnaud Benedetti

Nombre de commentateurs et d'acteurs politiques devraient méditer cet axiome de Max Weber qui du haut de sa lucidité empirique...

Les Frères Musulmans ne sont pas seuls en France

Les Frères Musulmans ne sont pas seuls en France

ParLina Murr Nehme

Le ministère de l’Intérieur vient de publier un rapport explosif sur les Frères Musulmans. À quand la diffusion d’études semblables...

Macron en Asie du Sud-Est : au cœur du Dialogue Shangri-La, la France trace sa voie

Macron en Asie du Sud-Est : au cœur du Dialogue Shangri-La, la France trace sa voie

ParSerge Besanger

C’est une scène soigneusement orchestrée qui s’est jouée à Singapour le 30 mai 2025 : Emmanuel Macron y prononce le...

Retrouvez nos dernières vidéos

«
Prev
1
/
85
Next
»
loading
play
Les conférences de 18h59 – Rassemblement de soutien à Boualem Sansal
play
Printemps des Technologies – Démocratie, technologies et souveraineté
play
Printemps des Technologies – Histoire et initiation aux cryptomonnaies et au Bitcoin
«
Prev
1
/
85
Next
»
loading

Inscrivez-vous à notre Newsletter

Related Posts

La deuxième exception culturelle sera cognitive et européenne ou ne sera pas
Science et technologie

La deuxième exception culturelle sera cognitive et européenne ou ne sera pas

Interview de Frédéric Masquelier
Science et technologie

« La technologie doit s’inscrire dans la culture civique? »

Science et technologie

Thibaut de Vanssay : « Maitrise technologique et souveraineté sont intimement liées »

Science et technologie

« Une très large majorité des Français ressentent le progrès des technologies comme un phénomène trop rapide »

DE L’IMPORTANCE DE PENSER ET DE FABRIQUER LA SOUVERAINETÉ NUMÉRIQUE
Science et technologie

Faites la « loi Moore », pas la guerre des GPU : et si l’IA tenait en un seul processeur ?

Marc Watin-Augouard : Le mot « confiance » sera sans doute le maître-mot du XXIe siècle
Science et technologie

Marc Watin-Augouard : Le mot « confiance » sera sans doute le maître-mot du XXIe siècle

La France doit retrouver son récit national
N° 1112

Une controverse entre académiciens d’Europe et d’Afrique autour d’un enjeu planétaire : alimentation et population

« Big brother is watching you »
Science et technologie

IA: L’Europe et la France vers un décrochage technologique?

Article suivant
Les robots ont-ils des droits ?

Les robots ont-ils des droits ?

La Revue Politique et Parlementaire
10 rue du Colisée 75008 Paris
Email : contact@revuepolitique.fr
Téléphone : 01 76 47 09 30

Notre Histoire
L'équipe
Mentions légales

Culture
Economie
Faut… de la géopolitique
International
La tribune du parlementaire
Libre opinion
Politique
Science et technologie
Société
Vie du parlement
Nos vidéos

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Se connecter

Add New Playlist

Aucun résultat
Voir tous les résultats
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • La cité des débats
    • Faut-il avoir peur de l’avenir ?
    • Aimons-nous encore la liberté ?
    • Savoir, pouvoir et démocratie
    • S’engager au 21ème Siècle
  • Le printemps des techno
    • Edition 2023
    • Edition 2024
    • Edition 2025
  • Boutique
    • Les numéros
    • Abonnement

Revue Politique et Parlementaire