Dans cet article, Timothée Charmeil explore l’impact croissant de l’intelligence artificielle sur nos émotions et le besoin émergent d’une régulation juridique adéquate.
À l’Évangile selon Saint Jean arguant qu’« au commencement était le Verbe », Céline répondait qu’« au commencement était l’émotion » 1. Si les émotions constituent ainsi un trésor et le déterminant de nos actions, elles peuvent également être l’instrument de notre asservissement. En effet, comme l’essayiste américaine Elizabeth Gilbert fait dire à un de ces personnages : « nous sommes les esclaves de nos émotions » 2.
Dès lors, celui qui connaît et fait usage des émotions d’un tiers devient le maître de ce dernier.
Cela pourrait expliquer pourquoi nous veillons jalousement sur nos émotions, veillant à ne les partager qu’avec ceux qui en sont dignes. Hier encore, une telle stratégie n’était pas dénuée de sens, dès lors que nous avions le monopole sur nos émotions.
Aujourd’hui, ce monopole s’est mué en duopole : l’intelligence artificielle (IA) collecte et utilise nos émotions.
L’IA fait de nos émotions de simples données : les données émotionnelles. En pratique, ces dernières sont déduites de l’activité de notre pupille, expressions faciales (sourire, grimace, froncement de sourcils), voix (intensité, rythme d’élocution, timbre), tension artérielle ou encore rythme cardiaque. Un paradoxe apparaît alors : si l’IA demeure incapable de ressentir des émotions, elle peut toutefois détecter les émotions.
Force est de constater que ces IA n’ont pas tardé à attirer les recruteurs : des études estiment que près de 50 % des employeurs américains utiliseront des systèmes de reconnaissance des émotions d’ici fin 2024 3. Les cas d’utilisation de ces systèmes dépassent néanmoins largement le marché du travail. Ces IA sont en effet utilisées dans les salles de classe 4(afin de mesurer l’attention des élèves), aux frontières 5 (afin d’évaluer la sincérité des migrants) ou encore sur le marché des produits et services 6(afin d’« orienter » le comportement des consommateurs). La croissance de ce marché est telle que les premières estimations prévoient que l’industrie de la reconnaissance des émotions pèsera plus de 37 milliards de dollars en 2026 7.
Ces IA placent le droit dans une position particulièrement inconfortable.
Cela, pour une raison aisément identifiable : le droit s’est toujours évertué à ignorer les émotions, leur préférant la froide raison.
Ainsi, le Code civil comporte une pluralité de mentions du « raisonnable » et de la « raison », mais aucune trace de la notion d’émotion. Alors que les autres sciences sociales ont embrassé la révolution des émotions depuis une dizaine d’années comme en atteste notamment l’émergence de l’économie des émotions 8, le droit français demeure sourd aux émotions et aux apports des neurosciences. L’immobilisme du droit français est rendu d’autant plus visible par les avancées des autres États sur ce point.
Par exemple, en octobre 2021, le Chili a modifié sa Constitution afin d’adopter des « neurodroits fondamentaux », visant à protéger le cerveau face à l’essor des nouvelles technologies.
Il serait malhonnête d’avancer que les IA de reconnaissance des émotions évoluent en France dans un vide juridique : la régulation européenne vient au secours de nos émotions.
Premièrement, la collecte et l’usage des données émotionnelles sont soumis à la régulation européenne sur les données (RGPD). Toutefois, dès lors que les données émotionnelles ne constituent pas des données sensibles au sens de cette règlementation, elles ne bénéficient pas du régime de protection renforcé prévu par ladite règlementation.
Deuxièmement, les IA de reconnaissance des émotions sont directement visées par le règlement européen sur l’IA (IA Act) pour lequel un accord a été trouvé en décembre 2023. Les partisans du verre à moitié plein se féliciteront, d’une part, de la qualification de ces systèmes d’IA à « haut risque » et, d’autre part, de la prohibition de leur usage sur le marché du travail et dans les établissements d’enseignement 9. Les partisans du verre à moitié vide relèveront quant à eux qu’a été retirée du texte à la dernière minute la prohibition de ces systèmes aux frontières et, plus généralement, que si, certes, ces IA sont classifiées d’IA à haut risque 10, elles n’en demeurent pas moins licites. Par principe, il est – et sera – donc licite de collecter les émotions des consommateurs afin d’orienter leurs comportements d’achat.
Dans ce contexte, le moment semble venu de faire de faire explicitement entrer les émotions dans le champ des droits fondamentaux. Certains argueront, probablement à raison, qu’un droit à l’émotion est déjà implicitement consacré via la liberté de pensée (article 9 de la Convention européenne des droits de l’homme). L’émotion étant un résultat de notre activité neuronale, il pourrait être soutenu que le droit à la liberté de pensée recouvre le droit à l’émotion. Il convient toutefois d’aller plus loin en faisant explicitement de l’émotion un objet de droit. Ainsi, il serait opportun d’adopter un droit fondamental à la vie privée émotionnelle et à la protection des données émotionnelles.
Cela marquerait le passage explicite d’un droit à l’émotion à un droit sur l’émotion.
Timothée Charmeil
Étudiant à Harvard (Law School)
Vice-Président de la Harvard Law & Tech Society
Diplômé de l’École Normale Supérieure (Département de Droit-Économie-Management)
- Entretien radio de Louis-Ferdinand Céline. Louis-Ferdinand Céline vous parle, 1958, https://www.youtube.com/watch?v=kGyqnGwQAVA (consulté le 6 mars 2024). ↩
- Gilbert, E. Eat, Pray, Love: One Woman’s Search for Everything Across Italy, India, and Indonesia. New York, Penguin, 2007. ↩
- Roemmich, K., Schaub, F. & Andalibi, N. « Emotion AI at Work: Implications for Workplace Surveillance, Emotional Labor, and Emotional Privacy », CHI ’23: Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, vol. 588, 2023, p. 1-20. ↩
- https://www.raydiant.com/blog/3-ways-companies-are-using-emotion-detection-technology (consulté le 6 mars 2024). ↩
- https://www.theguardian.com/world/2018/nov/02/eu-border-lie-detection-system-criticised-as-pseudoscience (consulte le 6 mars 2024) ↩
- https://www.protocol.com/enterprise/emotion-ai-school-intel-edutech (consulté le 6 mars 2024). ↩
- Crawford, K. « Time to regulate AI that interprets human emotion », Nature, vol. 592, 2021, p. 167. ↩
- Petit, E. Économie des émotions. La Découverte, 2015. ↩
- IA Act, art. 5. ↩
- IA Act, art. 6. ↩