Dans l’interview qu’il a accordée à Benjamin Thierry, Arnaud Latil analyse les lignes forces du Sommet pour l’action sur l’IA qui s’est tenu à Paris les 10 et 11 février 2025.
Revue Politique et Parlementaire – Le sommet de l’IA, organisé à Paris les 10 et 11 février 2025, a été salué comme la volonté de la France de « revenir dans la course » et d’inscrire la capitale française sur la carte mondiale des espaces qui comptent en la matière. Comment analyser ces deux jours de rencontre et de discussion ?
Arnaud Latil – Le Sommet pour l’action sur l’IA a été conçu comme le prolongement du Sommet de Bletchley Park, organisé par les Anglais en 2023, qui avait pour objectif de promouvoir la sécurité de l’IA. Le Sommet pour l’action sur l’IA, organisé par la France les 10 et 11 février 2025, se trouve davantage tourné vers les entreprises et tout particulièrement vers la promotion des industries françaises. De nombreux commentateurs étrangers ont ainsi souligné que la France avait entendu mettre en scène son écosystème de l’IA afin d’attirer les investissements étrangers.
L’annonce d’un investissement de plusieurs dizaines de milliards d’euros de la part des Émirats Arabes Unis, en plein pendant le sommet, s’inscrit dans cette perspective.
Dans le même sens, en écho au « Drill, baby, drill » lancé par Donald Trump pendant la campagne présidentielle américaine, Emmanuel Macron a répondu un « Plug, baby, plug ». La France possède en effet un réseau énergétique en partie décarboné, ce qui en fait un atout en matière d’IA, technologie très consommatrice en ressources énergétiques. Le Président de la République invite de cette manière les entreprises à venir « se brancher » en France, non seulement sur le plan énergétique, mais aussi en matière de compétences : les formations françaises en IA sont reconnues dans le monde entier.
Au-delà, le Sommet a aussi été conçu comme un lieu de rendez-vous pour les acteurs de l’IA. Les personnalités les plus influentes, comme Yoshua Bengio, Yann LeCun ou encore Sam Altman étaient présentes à Paris. En plus du programme « officiel » (les journées scientifiques à Polytechnique, le Grand Palais et la Station F), un grand nombre d’évènements labellisés « Sommet de l’action sur l’IA » ont en effet eu lieu dans toute la France.
Sur le plan géopolitique, le Sommet pour l’action sur l’IA est marqué par un nouvel alignement de la France, de la Chine et de l’Inde, sans les États-Unis ni la Grande-Bretagne. Les deux partenaires historiques de la France et de l’Europe n’ont en effet pas signé la « Déclaration pour une IA inclusive et durable pour les peuples et la planète », ce qui est certainement le signe d’une fracture plus profonde, dépassant le seul domaine de l’IA.
RPP – Comment peut-on concilier la promotion de l’industrie de l’IA en France et en Europe en conservant les régulations – fortes – que comporte le Règlement sur l’IA entré en vigueur le 2 février 2025 ?
Arnaud Latil – Le Règlement européen sur l’IA du 13 juin 2024 entre en vigueur progressivement. Il est le fruit de plusieurs années de négociations. Une première proposition a été publiée par la Commission européenne le 21 avril 2021, avant de faire l’objet de négociations rendues particulièrement difficiles en raison des enjeux industriels en cause, mais aussi en raison de l’immense succès public de ChatGPT de la société OpenAI à partir de novembre 2022.
L’IA n’était plus seulement un outil numérique pour les professionnels, mais devenait un véritable phénomène de société.
L’articulation entre, d’une part, l’objectif de protection de la santé, de la sécurité et des droits fondamentaux, et d’autre part, la promotion de l’innovation se trouve au cœur du projet européen, en particulier en matière d’IA. Si le Règlement relatif à l’IA reflète cet objectif, il est aussi l’objet de critiques, tant de la part des partisans d’une plus forte régulation, qui lui reprochent notamment d’autoriser trop largement la reconnaissance biométrique dans l’espace public pour des motifs de sécurité, que de la part des entreprises qui s’indignent des lourdeurs que ferait peser ce texte sur la compétitivité des entreprises européennes.
Sans trancher ce débat, qui mobilise évidemment des convictions politiques antagonistes, il faut souligner que ce texte s’inscrit dans une tradition juridique européenne affirmée, celle des législations dites « harmonisées ». Sous les impulsions de la « nouvelle approche », dès 1985, puis du « nouveau cadre législatif » en 2008, l’Union européenne a éprouvé une stratégie législative consistant à imposer des standards de sécurité à un ensemble de domaines économiques et industriels (l’aviation, les produits électroniques, les produits de santé, les jouets, etc.). La manifestation la plus célèbre de cette approche est le fameux « marquage CE » que doivent revêtir certains produits afin de pouvoir circuler sur le marché européen. L’enjeu de concilier les exigences de compétitivité, d’innovation, de sécurité et de protection des droits fondamentaux n’est donc pas nouveau.
Si le Règlement relatif à l’IA s’inscrit bien dans cette approche concernant les systèmes d’IA dite à « haut-risque »
– constitués des systèmes d’IA qui portent sur des éléments de sécurité ou des produits dans l’un des domaines de législations harmonisées ou bien relevant d’une liste de domaines visés à l’annexe III – il faut cependant reconnaitre que ce texte participe aussi d’une autre logique, fondée non plus sur la conformité, mais sur les « valeurs européennes » de l’article 2 du Traité sur l’Union européenne, à savoir la dignité humaine, la liberté, la démocratie, l’égalité, l’État de droit, le respect des droits de l’homme, le pluralisme, la non- discrimination, la tolérance, la justice et la solidarité. Pour cette raison, le Règlement sur l’IA contient des dispositions qui dépassent le cadre des règlementations harmonisées, comme en témoignent les dispositions relatives aux pratiques interdites en matière d’IA de l’article 5, comme la manipulation des personnes, la notation sociale ou la reconnaissance biométrique dans l’espace public.
En outre, il faut aussi avoir conscience que les contraintes pesant sur les producteurs et utilisateurs d’IA ne se limitent pas au Règlement relatif à l’IA. Bien d’autres textes, comme le RGPD pour les données à caractère personnel, les législations sur la propriété intellectuelle et le secret des affaires ou encore les textes en matière de cybersécurité, s’appliquent également à l’IA.
Il en résulte que l’IA se trouve encerclée par de nombreuses législations euro- péennes plus ou moins spéciales, en plus d’éventuelles législations nationales. Mais il ne faudrait pas non plus surévaluer la part de la règlementation européenne. La plupart des États du monde ont adopté des législations qui portent sur l’IA. Aux États-Unis, depuis 2016, pas moins de 25 textes visent l’IA (au niveau des États et au niveau fédéral). Le mouvement de dérégulation souhaité par le Président Donald Trump pourrait certes ralentir cette production normative, sans toutefois l’éteindre complètement en raison de la compétence des États fédérés en la matière.
RPP – Dans un contexte d’évolution de l’IA où les systèmes se fragmentent (IA générative, agents, IA multimodale, etc.), cette approche globale par le droit est-elle encore pertinente ?
Arnaud Latil – La question de la manière d’aborder la régulation d’une technologie n’est pas nouvelle. Traditionnellement, le législateur évite de réguler une technologie particulière, au nom d’un principe dit de « neutralité technologique ». L’idée sous- jacente est que les technologies changent rapidement, mais que la loi doit demeurer, ou au moins éviter de devenir obsolète trop rapidement du fait de l’évolution de la technologie. Par exemple, plutôt que de réguler la « blockchain », le législateur vise les « registres de distribution partagée ». De cette manière, la règle reste adaptée aux évolutions technologiques.
Or, le législateur européen a partiellement méconnu cette approche en matière
d’IA. En effet, si le règlement relatif à l’IA porte essentiellement sur des cas d’usage et des pratiques – certaines sont interdites, d’autres plus ou moins régulées –, force est de constater que la dimension technologique demeure centrale.
Cette approche fait ainsi naitre des difficultés pour tracer les frontières entre, d’une part, les logiciels ou les outils informatiques en général, et d’autre part, les outils qui relèvent de l’IA. La définition de ces derniers a logiquement constitué un point central des négociations du texte. En substance, la proposition de texte de 2021 retenait une définition très technique, qui a peu à peu était atténuée au fil des négociations. Il devenait clair qu’il était impossible de définir juridiquement des notions qui sont elles-mêmes discutées d’un point de vue scientifique, comme le machine learning, l’approche statistique ou encore la méthode bayésienne !
La définition finalement retenue repose sur une distinction entre les « systèmes » et les « modèles » d’IA.
Les premiers sont conçus comme des systèmes automatisés qui fonctionnent avec une certaine autonomie et peuvent faire preuve de capacité d’adaptation en fonction d’objectifs explicites ou implicites. Les modèles d’IA sont au contraire conçus comme des outils plus généraux. Il faut cependant reconnaitre que plusieurs zones d’ombres persistent quant à la définition juridique de l’IA, ce dont témoignent la publication de lignes directrices de 13 pages par le Bureau européen de l’IA le 5 février 2025 entièrement consacrée à la définition de l’IA, ou encore les incertitudes entourant la définition des « systèmes d’IA à usage général », à mi-chemin entre les « systèmes » et les « modèles ».
L’introduction pendant les négociations de dispositions relatives aux « modèles » d’IA manifeste encore une rupture avec le principe de neutralité technologique. Les « modèles » possèdent une réalité essentiellement technique. Que se passera-t-il si, dans quelques mois ou années, appa- raissent des objets hybrides entre « systèmes » et « modèles » ? À moins de tordre les catégories juridiques, il faudrait réformer les dispositions applicables.
Mais il ne faudrait pas, pour autant, en conclure que toute régulation de l’IA serait nécessairement vouée à une obsolescence programmée. L’approche large de la technologie retenue par le texte, la publication régulière de lignes directrices et l’interprétation par les tribunaux permettent d’adapter l’encadrement juridique aux évolutions technologiques. La jurisprudence permet ainsi d’adapter les textes, parfois au prix de constructions alambiquées, comme le montre l’expérience de la directive sur le commerce électronique, adoptée en 2000 et réformée par le Digital services Act en 2022. Les juges ont en effet adapté ce texte à une réalité technologique qui a profondément évoluée en 22 ans (moteurs de recherche, marketplaces, réseaux sociaux, etc.).
RPP – Comment concilier les attentes en matière de politique environnementale et en matière de promotion de l’IA ? Comment l’Europe entend-t-elle résoudre ce paradoxe ?
Arnaud Latil – La conception (en particulier l’entrainement des modèles) et l’utilisation (on parle d’inférence) de l’IA sont fortement consommatrices d’énergie. L’encadrement juridique de l’IA n’aborde malheureusement pas la question frontalement. Mais cette situation ne constitue pas un « refus d’obstacle » de la part du régulateur de l’IA. Les enjeux environnementaux relèvent davantage d’une politique industrielle liée à la décarbonation de l’économie (le green deal) que de la régulation de l’IA au sens strict.
Néanmoins,il existe au moins deux moyens de saisir ces enjeux à travers la régulation de l’IA. Le premier repose sur l’approche par les risques, qui doit logiquement intégrer la dimension environnementale. Il s’agit en effet, lorsque cela est obligatoire (en substance pour les cas d’usage à haut risque), de prendre en considération les risques environnementaux dans les systèmes de gestion des risques rendus obligatoires par l’article 9 du Règlement sur l’IA. Le second moyen d’encourager l’IA dite « frugale » consiste à se saisir des bacs à sable règlementaires, autorisant des expérimentations innovantes.
Au-delà, les pouvoirs publics se trouvent aussi en mesure d’encourager l’IA responsable sur le plan environnemental, bien que cette dimension ne relève pas strictement du Règlement sur l’IA.
RPP – L’AI Act mentionne explicitement que les systèmes qui ne respectent pas les « valeurs européennes » ne peuvent être développés. Si on le comprend aisément pour les applications de l’IA, cela pose une réelle difficulté en amont : comment les valeurs européennes se traduisent dans le choix des jeux de données ? Dans les modèles utilisés ?
Arnaud Latil – Les premiers considérants du Règlement sur l’IA indiquent en effet que les systèmes et modèles d’IA doivent respecter les valeurs européennes consacrées par le Traité sur l’UE et par la Charte des droits fondamentaux de l’IA. Ce rappel ne saurait toutefois surprendre dans la mesure où les droits fondamentaux ont vocation à s’appliquer à toutes les activités humaines, y compris à l’IA. Ces valeurs irriguent l’ensemble du Règlement sur l’IA. Ainsi la protection de la dignité des personnes, de la liberté de choix et de la vie privée justifie la prohibition d’un certain nombre de fonctionnalités aux termes de l’article 5. La protection de la sécurité, de la santé et des droits fondamentaux explique encore que certains usages soient régulés, avec notamment l’obligation de mettre en place une gouvernance des données d’entrainement et d’un système de gestion des risques. Une autre disposition, plus générale, impose aux organisations qui déploient des systèmes d’IA de s’assurer que les utilisateurs possèdent une suffisante littératie de l’IA. De cette manière, le législateur espère prévenir des usages néfastes de l’IA.
RPP – Les deux acteurs dominants de la recherche en IA sont les États-Unis et la Chine. DeepSeek a ébranlé la domination américaine au début du mois de février 2025 avec un modèle à la fois modeste en ressources mobilisées et fiable dans ses résultats. Quelle place entend occuper l’Europe dans ce duel de géants ?
Arnaud Latil – Au moins trois observations doivent être présentées à ce sujet.
La première porte sur la place des modèles dits « ouverts ». Le « moment DeepSeek » a été perçu comme la victoire des modèles ouverts face aux modèles fermés. Mais, sous cette appellation de « modèles ouverts » se cachent des réalités très différentes. Il existe en effet plusieurs degrés d’ouverture (accès simple aux modèles à travers une API, accès aux poids, accès aux algorithmes, accès aux données d’entrainement…), ce qui a une incidence sur la manière de les appréhender. Il ne faut pas oublier que le développement du modèle « DeepSeek R1 » repose sur l’entrainement de modèles (plus ou moins ouverts) qui ont eux-mêmes nécessité beaucoup de puissance de calcul. En l’état, les modèles frugaux supposent encore de s’appuyer sur des modèles très consommateurs de données et de puissance de calcul..
En second lieu, les conditions d’entrainement de DeepSeek demeurent entourées d’un voile de mystère. La société OpenAI accuse en effet la société chinoise de « distillation », c’est-à-dire d’avoir entrainé son modèle à partir du sien. Autrement dit d’avoir profité, en passager clandestin, de la puissance de calcul d’OpenAI.
Enfin, un modèle est rarement suffisant pour permettre un déploiement efficace et pertinent. La personnalisation du modèle (on parle de f ine tuning) constitue une étape essentielle. Il convient alors d’être en possession de données pertinentes pour ce faire. Enfin, l’utilisation d’un système d’IA (on parle d’inférence) nécessite aussi des infrastructures importantes, comme des puces et des centres de données.
En résumé, si le « moment DeepSeek » constitue bien une avancée en matière d’IA frugale, il ne faut pas non plus le concevoir comme l’ouverture d’une ère d’IA accessible à tous. Les données, les infrastructures, mais aussi les talents demeurent aujourd’hui des commodités es- sentielles pour l’IA.
Arnaud Latil
Maître de conférences HDR à Sorbonne Université Chercheur au centre « Sciences, Normes, Démocratie », UMR 8011 Membre du SCAI (Sorbonne Center for Artificial Intelligence)
(Propos recueillis par Benjamin Thierry)