Dans le chaos informationnel actuel pouvons-nous raisonnablement permettre à l’intelligence artificielle (IA) de dire tout et son contraire et de servir la cause de la désinformation au mépris de la liberté d’expression ? Devons-nous en limiter le développement pour préserver nos démocraties comme l’ont appelé une série de scientifiques ? Faut-il plutôt en restreindre l’usage dans le débat public ?
Le débat sur ces questions est aujourd’hui largement nourri par un emballement médiatique sur les nouvelles prouesses de cette technologie, dont les impacts positifs, essentiellement d’ordre économique, n’auraient d’égal que les dangers pour la société et les droits humains. L’irruption de l’IA générative (qui permet de générer différents types de contenus) a d’ailleurs profondément modifié les discussions en cours sur l’Acte européen éponyme qui vient d’être adopté à Bruxelles. Le législateur européen a ainsi été poussé, voire contraint, de revoir sa copie pour y intégrer ces nouveaux développements technologiques, sans recul sur son fonctionnement ni son impact réel, positif ou négatif.
S’interroger sur l’impact de l’IA générative, et de l’IA au sens large, sur la liberté d’expression nécessite avant tout de comprendre ses mécanismes fondamentaux ainsi que les outils de régulation et de contrôle existants. Le terme « intelligence artificielle » est porteur de beaucoup de fantasme mais en y regardant de près, l’IA générative n’est en effet pas aussi intelligente que ce que certains voudraient le faire croire et les grands modèles de langage, ceux qui visent à reproduire le langage humain, ne sont au fond que des modèles probabilistes très performants.
À partir d’une instruction donnée par l’utilisateur, ces modèles ne font que mettre bout à bout des mots selon le degré de probabilité qu’ils se suivent.
Pouvons-nous dès lors attendre de ces modèles qu’ils produisent (ou plutôt reproduisent) la vérité ? La réponse est assurément négative, dans la mesure où ceux- ci ont pour unique objectif de générer du contenu à partir de contenus existants. Entrainer un modèle avec des contre-vérités ne mènera donc qu’à la production de contre-vérités. Or, les grands modèles de langage sont aujourd’hui entrainés sur les archives de l’internet, avec un contrôle relativement limité de la qualité des informations récoltées.
Considérant la diversité des contenus diffusés sur internet à l’heure actuelle, il ne faut donc pas s’attendre à des prouesses en termes d’exactitude et de qualité des résultats.
Soulignons enfin que les algorithmes employés sont d’une très grande complexité et que leur superposition en couches de « neurones artificiels » rend le processus de production de contenu assez opaque. Il n’est ainsi pas possible de déterminer avec précision quels contenus ont été mobilisés par le système parmi les données d’entrainement pour en produire un nouveau.
Avant de continuer à nourrir une inflation législative qui sert peu son objectif, peut-être faudrait-il comprendre dans un premier temps le fonctionnement de ces modèles afin de déterminer comment les règles existantes, par exemple dans le domaine du droit d’auteur, pourraient être efficacement appliquées.
Les dangers de l’IA pour la liberté d’expression
Malgré ces limites évidentes, les risques que fait courir l’IA générative à la liberté d’expression, dans un contexte particulièrement morose pour les droits humains, doivent être appréciés et traités à la hauteur de l’enjeu.
Paradoxalement, bien comprise et bien utilisée, l’IA est aussi le meilleur outil au service de la liberté d’expression.
L’IA générative met aujourd’hui au défi le corollaire direct de la liberté d’opinion, ou le droit de chacun de former ses propres opinions sans ingérence extérieure. L’une de ses conséquences les plus tangibles est en effet la circulation en masse d’images détournées ou factices sur les réseaux sociaux, parfois au service de campagnes de désinformation et/ou de déstabilisation par différents acteurs dont des puissances étrangères. L’exposition à ce type de contenu conduit à des effets cognitifs pouvant influencer massivement la perception des personnes qui y sont confrontées avec des conséquences très concrètes et non souhaitables sur le résultat d’élections ou sur la santé publique. À l’ère de la « post- vérité », chaque individu détient désormais les moyens de construire, illustrer et diffuser sa propre vérité à différentes fins.
Le danger pour la liberté d’opinion, et par extension la liberté d’expression, provient également des vecteurs de propagations de contenus. Dès 2019, le Conseil de l’Europe s’inquiétait du risque pour les algorithmes de recommandation de contenus et les techniques de microciblage des individus d’entraver la capacité humaine à construire son opinion indépendamment de ce que proposent ou dictent les systèmes automatisés. Le Conseil de l’Europe évoquait même un risque de persuasion algorithmique dans la mesure où l’IA permet « d’influencer les émotions et les pensées et de modifier le déroulement d’une action, parfois de façon subliminale ».
Rappelons enfin que les dangers posés par l’IA générative pour les libertés fondamentales ne se limitent pas à la génération de contenus au sens strict. Les éditeurs de contenus, dont la presse, ou le secteur de la publicité s’inquiètent aussi de la multiplication de sites internet frauduleux créés et alimentés par de l’IA et dont le seul objectif est de capter des revenus au détriment des créateurs sérieux, bien identifiés et régulés.
Réconcilier IA et liberté d’expression
Il importe tout d’abord de relativiser l’impact de l’IA sur la liberté d’expression. Les enjeux évoqués ci-dessus ne sont pas fondamentalement nouveaux, la manipulation de masse n’a pas été inventée par le numérique et le complotisme est inhérent aux sociétés humaines. Des études ont également démontré que le flot de désinformation n’est finalement consommé que par une petite fraction – soit environ 5 % – des consommateurs d’informations en Amérique et en Europe. D’autres analyses ont prouvé que si l’IA contribue à la désinformation, les biais psychologiques sont beaucoup plus déterminants dans la dissémination de ce type de contenus.
Dans de nombreux cas, l’IA est autant la source du problème que sa solution.
De nombreux outils reposant sur de l’IA permettent aujourd’hui de lutter efficacement contre les effets négatifs du numérique. Ainsi, des solutions de marquage et de traçabilité des contenus permettent déjà de garantir l’authenticité d’un contenu ou d’une information. Des solutions de marquage, y compris pour les contenus textuels, identifient ceux générés par une IA. La recherche scientifique progresse également sur le terrain de la modération des contenus et de la lutte contre les biais ou discriminations, afin d’éviter que l’IA ne génère des contenus préjudiciables ou illégaux. Faire de l’IA un allié pour réguler
Intelligence artificielle générative et liberté d’expression : je t’aime, moi non plus
l’IA est fondamental en ce que seules les technologies numériques permettent aujourd’hui de lutter efficacement contre la propagation rapide de contenus à grande échelle.
Atteindre cet objectif pose néanmoins la question cruciale de la maîtrise des technologies, en particulier des techniques d’apprentissage des algorithmes. À ce titre, on ne peut que se réjouir de la naissance de pépites telles que Mistral AI ou Aleph Alpha sur le sol européen. Ces entreprises, dont le développement devrait être encouragé, sont un vivier de talents et de connaissances de ces technologies, et par extension de la capacité européenne et française à les maitriser et les réguler intelligemment dans le respect des libertés fondamentales. Mais il s’agit également d’influer sur la conception même de la technologie, afin de faire en sorte qu’elle soit, par exemple, conçue de manière à favoriser l’échange constructif plutôt que la viralité de contenu factuellement faux ou nauséabond.
Sur le terrain législatif et réglementaire, le législateur européen s’est montré particulièrement réactif.
L’Acte sur les services numériques (ou Digital Services Act), adopté en 2022 et entré en vigueur en février 2024, contient déjà certaines dispositions permettant une plus grande transparence et davantage de contrôle des utilisateurs sur les processus algorithmiques de recommandation de contenus. L’Acte sur l’intelligence artificielle (ou AI Act), adopté en mars 2024 par le Parlement européen, va quant à lui introduire des obligations en matière de suivi, de labellisation du contenu généré par l’IA et de transparence sur les données d’entrainement. Ces textes renforceront également l’arsenal dont disposent les régulateurs pour s’attaquer aux campagnes de désinformation en ligne.
Non seulement la réglementation ne doit pas être un frein à l’innovation mais en matière numérique, il faut toujours prendre garde aux effets collatéraux de règles paraissant légitimes et souhaitables au premier abord.
Ainsi, des règles visant à limiter la collecte et le traitement de données considérées comme sensibles (par exemple des données sur les opinions politiques ou l’appartenance syndicale) au titre de la protection de la vie privée peuvent-elles avoir des effets pervers sur le développement de l’IA. L’utilisation de telles catégories de données est en effet nécessaire aux chercheurs afin de limiter le risque que l’algorithme perpétue ou amplifie certains biais politiques ou sociaux par exemple. Dans un futur proche, il s’agira donc de bien calibrer la régulation et les limites que nous nous imposons à des fins de protection des individus et de la société.
Finalement, la mère de toutes les batailles doit bien évidemment rester l’éducation.
Au plus les technologies deviendront intelligentes, au plus il sera nécessaire que les personnes qui l’utilisent en comprennent les mécanismes pour ne pas se faire piéger par l’illusion et la manipulation. Tout comme l’écriture et la lecture ou encore le permis de conduire, il n’est nul besoin d’être un génie en mathématiques ou ingénieur pour devenir une utilisatrice ou un utilisateur éclairé(e). Le processus d’apprentissage est totalement accessible pour autant que l’utilisateur s’y attèle et prenne le temps nécessaire.
Réduire la liberté d’expression ne peut être l’alpha et l’oméga de l’encadrement de l’IA et du numérique en général, sauf à ce que le remède ne devienne plus dangereux que le mal. La démocratie à l’ère du numérique ne peut prospérer que sur le socle d’une population d’esprits critiques formés à réfléchir et à identifier la source et la fiabilité des informations qu’elle reçoit, de l’intelligence humaine ou des machines. Les libertés d’opinion et d’expression en forment le socle.
Thaima Samman
Avocate aux Barreaux de Paris et Bruxelles
Benjamin de Vanssay
Avocat au Barreau de Bruxelles