Pour la première fois dans l’histoire de l’humanité, l’IA, intelligence « artificielle », est capable d’accomplir des tâches complexes jadis réservées à l’intelligence humaine, telles que prédire, traiter de grandes quantités d’informations, apprendre et s’adapter de façon extrêmement rapide face à des situations complexes, urgentes et changeantes.
Née dans les années 1940 dans le sillage de la cybernétique, cette nouvelle forme d’intelligence constitue à première vue un progrès technologique et scientifique majeur, susceptible d’engendrer des bénéfices sociétaux considérables en améliorant la santé, la justice, le commerce et l’industrie, les transports, la protection des biens et personnes et celle de la planète.
Le développement actuel et à venir de l’intelligence artificielle présente cependant un certain nombre de défis éthiques et sociétaux majeurs. En effet, l’IA peut en même temps influencer la vie politique et sociiale, contraindre les choix de certains groupes et individus, les influencer, bouleverser leur relation au travail et le marché de l’emploi, contredire leurs droits fondamentaux, enfin affecter l’accès au travail et exacerber les inégalités économiques et sociales.
Du bien-fondé des lois en cours de préparation
L’IA représente une somme d’opportunités et de menaces qui sont directement liées à la réflexion sur la société dans laquelle nos concitoyens souhaitent vivre demain. Les libertés individuelles ne sauraient se dissoudre dans une économie de la donnée toujours plus présente dans notre quotidien.
Dans ce contexte, le Parlement européen travaille actuellement à la définition d’une loi sur l’IA, « IA Act », destinée à devenir lors de son vote en 2024, la première loi globale sur l’IA au monde.
Par ailleurs le Sénat français a voté, le 12 juin 2023, une proposition de loi pour encadrer l’usage de la reconnaissance biométrique, notamment faciale, dans l’espace public. À l’approche des Jeux olympiques, cette proposition vise à la modernisation des méthodes de sécurité, mais suscite en même temps des interrogations quant à son impact sur les libertés individuelles.
Déjà utilisée notamment dans des dispositifs de contrôles aux frontières (Parafe) et dans des outils d’identité en ligne de type Alicem, la reconnaissance faciale a également été utilisée par la ville de Nice pour la surveillance du carnaval en 2019.
Le 23 mars 2023, l’Assemblée nationale a adopté l’art. 7 du projet de loi sur les Jeux Olympiques autorisant l’emploi de la vidéosurveillance algorithmique pour surveiller les objets et comportements suspects via une analyse automatique en temps réel, d’images captées soit par caméras, soit par drones, pour trois ans jusqu’au 30 juin 2025.
Le texte en cours de discussion au Parlement européen interdit en revanche les systèmes d’identification biométrique en temps réel et à distance, comme la reconnaissance faciale, sans prévoir d’exceptions telles que les Jeux olympiques, la lutte contre le terrorisme ni la recherche de personnes disparues, et pose un principe général d’interdiction.
De façon spécifique, le projet du Parlement européen est d’établir plusieurs catégories de risques susceptibles d’être appliquées aux systèmes d’IA.
Plusieurs incohérences
Parmi les risques dits « inacceptables » et entraînant de facto une interdiction du type d’IA afférant, sont susceptibles de figurer dans l’IA Act :
- La manipulation cognitivo-comportementale de personnes ou de groupes dits « vulnérables ». Cette première interdiction mériterait un développement sur la définition du terme « vulnérables ». Elle apporte néanmoins un élément de réponse bienvenu et un élément d’arsenal juridique utile face au développement incontrôlé de l’IA dans certains pays totalitaires, visant précisément à manipuler les groupes et personnes de façon cognitive ou comportementale.
- Le score social en fonction des idées, du comportement, du statut ethnique, socio-économique ou religieux. Pratiqué en Chine, ce score social est jugé contraire à l’éthique par le Parlement européen. Il semble qu’un large consensus soit en train de se dégager sur la question.
- Les systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale, à l’exception des systèmes d’identification biométrique à distance dits « a posteriori », où l’identification se produira après un délai « important », dans le but de poursuivre des « crimes graves » et « uniquement après l’approbation d’un tribunal. » Cette définition extrêmement restrictive aboutirait à une très large interdiction de la reconnaissance faciale. Cette interdiction générale est problématique.
Le Parlement européen envisage également de réguler les applications à risque « élevé », tels que les jouets, l’aviation, les voitures, les dispositifs médicaux et les ascenseurs. Cette régulation fait l’objet d’un large consensus.
Enfin, seront « obligatoirement enregistrés » dans des bases de données « souveraines » à l’intérieur même de l’UE : la gestion des forces de l’ordre, celle des migrations, l’aide à l’interprétation juridique—mais également : l’identification biométrique et la catégorisation des personnes physiques ; la gestion et l’exploitation des infrastructures critiques ; l’éducation et la formation professionnelle ; l’emploi, la gestion des travailleurs et l’accès au travail indépendant ; l’accès et la jouissance des services privés essentiels et des services et avantages publics.
Ces aspects de l’IA Act seront vraisemblablement générateurs de frictions avec les États-Unis, premier débouché net de l’Europe à l’exportation, et en même temps pays où sont actuellement hébergées bon nombre de données.
Si le rapatriement en Europe de la gestion des données issues de l’internet des objets critiques pour les hôpitaux, centrales électriques et autres semble opportun, en revanche la question des données relatives à l’éducation et à la formation professionnelle pose question, dans la mesure où de nombreux programmes de formation sont par nature transatlantiques.
Concernant à présent la question tant attendue de l’IA générative (exemple : ChatGPT), le Parlement européen envisage que cette IA se conforme à certaines exigences de transparence.
Il est notamment prévu un devoir d’indication que « le contenu a été généré par l’IA ».
Ceci posera inévitablement la question des seuils : à partir de combien de caractères, lignes, paragraphes, devra-t-on effectuer une telle mention ?
Le Parlement européen envisage enfin de classer en « risque limité », soumis à des « exigences de transparence minimales » qui « permettraient aux utilisateurs de prendre des décisions éclairées », les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo, tels que les deepfakes, des contenus faux qui sont rendus crédibles par l’IA.
Sur ce point, il existe une contradiction patente avec la catégorie des risques dits « inacceptables » entraînant une interdiction de l’IA, telle la manipulation cognitivo-comportementale des personnes et de groupes vulnérables. En effet, bon nombre de ces deepfakes, issus notamment de pays totalitaires, visent précisément à manipuler de tels groupes. Faudra-t-il les ranger dans la catégorie des risques « inacceptables », ou bien « limités » ?
Deux non-sujets stratégiques : les applications militaires et financières
Le 18 octobre 2023, près de Toretsk dans le Donbass, se serait produit selon les analystes militaires le premier cas d’utilisation d’une intelligence artificielle rôdeuse (ou « errante ») autonome et létale : le « moment Terminator ».
Ce cas révélé par les média russes constituerait une première mondiale. En effet, si de nombreux systèmes d’armes, y compris occidentaux, « embarquent » de l’IA, la décision finale de déclencher l’arme appartenait jusqu’à présent à un opérateur humain.
Dans les vidéos russes, l’opérateur maintient d’abord la cible dans un vaste cadre. Suite à cela, le drone traite les images, identifie les soldats ukrainiens et effectue la frappe de façon totalement autonome, sans interagir avec l’opérateur.
Les chaînes Telegram russes connectées au Kremlin suggèrent l’utilisation d’un drone « Izdelie 53 » Zala (Kalachnikov).
Il pourrait en réalité s’agir d’un Lancet embarquant une IA tueuse autonome à apprentissage automatique.
Quoi qu’il en soit, la rapidité et la nature de cette évolution nécessitent un examen attentif.
Lorsque l’IA est déployée dans le domaine de la défense, les enjeux sont importants—voire existentiels. Si les Russes ont applaudi cette « révolution dans l’art de la guerre », les Chinois ont pour leur part rappelé l’urgence d’une « intelligentisation rapide des armées ». L’empire du Milieu est résolu à développer une nouvelle génération de technologies militaires appelées à surpasser celles des pays occidentaux et de changer la nature de la guerre en sa faveur, sur la base de progrès perturbateurs dans les secteurs de l’IA et des systèmes d’armes autonomes.
Or la Chine a récemment refusé de signer l’accord de coopération sur l’IA de Bletchley Park concernant le test des modèles d’IA avancée.
Le recours à l’intelligence autonome tueuse abaisserait le seuil d’entrée en guerre des États, augmentant ainsi la probabilité d’un conflit. L’on recourerait plus souvent au conflit armé si l’on n’avait pas besoin de s’appuyer sur des soldats. L’effet d’abaissement du seuil de ces armes risque de fournir une manière politiquement acceptable de mener des guerres, « sans cercueils de soldats »… Et donc catastrophiques pour les civils. Les conséquences seraient catastrophiques pour la race humaine, « libérée » de l’éthique du soldat.
De telles armes pourraient par ailleurs être utilisées comme outils de nettoyage ethnique.
Le projet de loi européenne sur l’IA promeut une utilisation de l’IA « éthique », conformément à l’éthique promue par nos Armées. Le Parlement européen a cependant adopté trois résolutions en défaveur des armes autonomes : en 2014, 2018 et 2021. Or il existe de nombreux systèmes à double usage, à la fois civil et militaire : algorithmes de reconnaissance de formes, par exemple : pour tumeurs (médical) ou cibles militaires.
Dans de tels cas d’usage double, la loi sur l’IA s’appliquera, interdisant de facto la plupart des usages militaires.
Les entreprises du secteur de la défense risquent donc d’être sous-préparées face à cette loi, y compris dans les cas, à priori légitimes, où ces entreprises ne feront qu’embarquer une IA asservie au soldat, à ses codes et à son éthique.
De façon tout aussi préoccupante, la réflexion du Parlement semble faire l’impasse sur la finance « intelligente » et ses dangers. On se souviendra que la crise de 2008 fut causée par des « CDOs », instruments financiers que personne ne comprenait et qui ne furent soumis à aucune régulation… Or l’IA est dorénavant capable de créer des produits encore plus complexes, et ce sans aucune intervention humaine.
Un vote imminent
Les pourparlers ont commencé avec les pays de l’UE, à présent au sein du Conseil de l’Europe, sur la forme finale de l’IA Act. S’il semble opportun de parvenir à un accord rapide au vu de la faiblesse du corpus légal existant, le législateur sera bien avisé de pointer les limites et contradictions du texte actuel.
L’IA se différencie de toutes les technologies précédentes de l’histoire de l’humanité, par sa capacité à prendre des décisions par elle-même, apprendre, se corriger et se développer par elle-même, et ce de façon potentiellement exponentielle et incontrôlée.
Il est extrêmement compliqué pour les humains d’en cerner tous les dangers et opportunités.
L’IA est également entourée de nombreuses légendes urbaines qui tentent de discréditer ses impacts positifs. Ces fausses informations ont la fâcheuse tendance de semer la confusion parmi le public, en créant des doutes sur la viabilité de ce qui pourrait constituer un indéniable progrès technologique et sociétal, mais qui ne saurait cependant échapper à une régulation cohérente et bien pensée.
Serge Besanger,
Administrateur d’entreprises de la Tech,
co-fondateur de la DeepTech Alliance,
Professeur à l’ESCE.