Les Jeux Olympiques 2024 constituent un test grandeur nature pour la surveillance des foules lors de grands évènements. L’utilisation d’intelligences artificielles apparaît comme une évidence aux yeux des organisateurs, puissance publique comprise. Derrière un impératif de sécurité pour le pays hôte, se cache un risque de pérenniser l’utilisation de nouvelles technologies de surveillance de masse et ouvre la voie à la reconnaissance faciale.
L’une des mesures phare de la loi autorise l’utilisation de traitements par algorithme via les caméras de surveillance, qu’elles soient installées de manière fixe dans l’espace public ou encore par drones. Vulgairement, le gouvernement entend appliquer une couche d’intelligence artificielle sur les moyens de surveillance (90 000 caméras fixes auxquelles s’ajoutent les caméras mobiles) déjà utilisés pour détecter de façon automatique des comportements considérés anormaux. Un décret est d’ailleurs paru le 19 avril pour permettre la captation et l’utilisation d’images de drones par les forces de l’ordre en matière de police administrative.
Le Conseil d’État a rendu un avis consultatif par lequel il critique notamment l’étude d’impact préalable au dépôt du projet de loi J.O., considérée comme : « en-deçà de ce qu’elle devrait être », sans s’être toutefois prononcée sur la question de l’utilisation d’algorithmes.
La CNIL relève à juste titre que l’expérimentation de l’utilisation de caméras augmentées « est un tournant qui va contribuer à définir le rôle qui sera confié dans notre société à ces technologies, et plus généralement à l’intelligence artificielle ».
Bien que la CNIL appelle depuis un temps certain à une réflexion globale et éthique sur les usages de ces instruments, le gouvernement a tranché le sujet, au risque de banaliser l’utilisation de ces technologies particulièrement intrusives.
Symboliquement, le choix du gouvernement de recourir à la procédure accélérée devant le Parlement dénote avec les exigences de la CNIL. C’est ainsi que le projet de loi est passé inaperçu en pleine mobilisation contre le projet de réforme des retraites et sera applicable dès la promulgation de la loi, soit avant la coupe du monde de rugby 2023.
Tout le problème réside dans la pérennisation des expérimentations, par souci de communication plus que de sécurité, sous l’angle d’une efficacité arguée plus que d’une règle réfléchie.
Légiférer pour les Jeux Olympiques puis généraliser l’usage de telles technologies questionne. Le rôle du politique n’est-il pas d’anticiper la législation de demain, plutôt que de subir un calendrier imposé ? Les situations exceptionnelles deviennent la norme avec le temps.
La CNIL s’est d’ailleurs prononcée dans sa délibération sur un projet de loi qui prévoyait une période d’expérimentation allant jusqu’au 31 décembre 2024. Or, la première version du projet de loi repoussait l’expérimentation au 30 juin 2025 (finalement limitée au 31 mars 2025). La CNIL ne se serait ainsi pas prononcée sur la dernière version du projet de loi. Un cafouillage qui interroge là encore sur la méthode.
L’objectif d’expérimentation est de tester un ou plusieurs algorithmes et de disposer d’une période suffisante pour les entraîner avec les images obtenues.
Espérons que la période d’expérimentation accouchera d’une réelle étude d’usage et pas d’un argumentaire préconstruit, ce dont on peut douter puisque l’utilisation vidéosurveillance n’a jamais fait l’objet d’étude en France.
L’étude d’impact indique que l’absence de recours à la reconnaissance faciale garantirait la préservation de l’anonymat. Or, il n’est pas nécessaire de mettre en place un système de reconnaissance faciale pour que des données personnelles soient traitées. Une nouvelle fois, l’anonymat est confondu avec le pseudonymat. Preuve en est, l’étude d’impact prévoyait la possibilité pour les personnes filmées d’exercer leurs droits (accès, effacement), ce qui suppose le traitement de données personnelles de personnes physiques…
Maigre lot de consolation, l’autorisation du préfet sera nécessaire pour utiliser les algorithmes développés par l’Etat ou pour son compte par des tiers, privés ou non.
Mesure qui interroge quand on sait que la préfecture de police de Paris a déjà fait voler des drones par le passé, hors de tout cadre juridique l’autorisant, donnant lieu à une sanction à l’encontre du ministère de l’intérieur.
Les algorithmes utilisés par les forces de l’ordre devront être finement scrutés. Quelle technologie choisir ? Développée par quel prestataire ? Avec quel niveau d’immixtion de la part de sociétés privées, françaises ou étrangères ? L’impératif de disposer dans un délai court d’une technologie efficace pour les forces de l’ordre ne devra pas conduire à choisir un prestataire par défaut qui pourrait impacter les droits des individus. Au même titre que la force publique doit servir l’intérêt général, il est dans l’intérêt de tous que les modalités choisies pour la garantir ne permettent pas, à moindre effort, de la détourner[1]. Que ce soit par des puissances étrangères ou par des sociétés privées. Le choix des technologies n’est pas anodin, tant elles sont performantes et efficaces.
Le passé récent révèle que loin d’occuper les esprits des gouvernants, ces préoccupations leur apparaissent soit indignes soit suspectes… manifestant ainsi un curieux manque de hauteur de vue pour des amateurs de drones.
Preuve en est, la dernière incartade des sénateurs qui s’autorisent à voter l’expérimentation de la reconnaissance faciale, moins d’un mois après la promulgation de la loi relative aux J.O. qui exclut tout recours à la reconnaissance faciale.
Carbon de Seze
Alexandre Minot-Chartier
Avocats au Barreau de Paris
[1] Un cahier des charges est prévu dans le projet de loi modifié par les parlementaires.