Lors des dernières élections européennes, de nombreux électeurs ont constaté que leurs réseaux sociaux leur proposaient des messages politiques taillés sur mesure : vidéos courtes, slogans calibrés, promesses ciblées. La plupart ignoraient que ces contenus étaient conçus ou optimisés par des outils d’intelligence artificielle. Cet épisode n’est pas anecdotique : il illustre un basculement profond. La confrontation d’idées, visible et collective, tend à être remplacée par une persuasion individualisée, invisible, qui agit sur chacun en silence. Que devient la démocratie quand elle se joue désormais dans les coulisses des algorithmes ?
À première vue, ces outils donnent l’impression d’un progrès. Ils permettent de savoir presque en direct comment réagissent les citoyens, d’identifier les thèmes qui montent, de tester des formules et d’adapter aussitôt les discours. Pour un candidat, c’est un atout redoutable : sentir “l’humeur” de l’électorat et ajuster sa parole comme on ajuste une stratégie commerciale. Mais ce confort tactique a un coût. Car derrière les graphiques et les prédictions, l’électeur n’est plus perçu comme un individu pensant, mais comme une case dans un tableau, une cible à atteindre par les bons ressorts émotionnels. Le débat public, censé être un échange d’arguments visibles de tous, devient une succession de dialogues invisibles entre machines et citoyens isolés.
Ce n’est pas une crainte théorique. L’affaire Cambridge Analytica en 2016 a montré comment l’exploitation des données personnelles pouvait orienter un scrutin majeur en jouant sur les failles psychologiques des électeurs. Depuis, la pratique s’est banalisée, plus discrète mais tout aussi puissante. En Europe comme en France, les campagnes utilisent déjà des techniques de micro-ciblage, avec le risque de transformer l’espace démocratique en une mosaïque d’univers parallèles où chacun ne voit que ce qui conforte ses préférences.
La philosophie politique nous aide à nommer ce danger. Hannah Arendt rappelait que la politique commence quand les hommes apparaissent les uns aux autres dans un espace commun. Or la personnalisation algorithmique fragmente cet espace : chacun reçoit une information différente, voit un monde politique taillé à sa mesure, sans rencontre véritable avec les autres. Habermas, de son côté, faisait de la délibération publique la source de la légitimité.
Mais la délibération suppose des faits partagés, un horizon commun de discussion. Lorsque chaque citoyen évolue dans sa bulle informationnelle, cet horizon disparaît.
Le philosophe indien Shaj Mohan propose, avec Divya Dwivedi, le concept des forsaken, les “abandonnés”. Ce sont ceux que les structures politiques et techniques laissent de côté, sans reconnaissance. À l’âge de l’IA, ce sont les électeurs qui ne maîtrisent pas les codes technologiques, qui ne savent pas comment l’information est triée et qui perdent confiance dans un système devenu opaque.
Leur sentiment d’abandon nourrit la défiance et parfois le complotisme. Quand on ne comprend plus comment se fabrique l’opinion, on suppose une manipulation généralisée.
Faut-il pour autant diaboliser l’IA ? Non.
Elle peut être utilisée pour élargir l’accès à l’information, rendre plus lisibles les données publiques, simuler les effets de politiques à venir.
Mais cela suppose deux conditions strictes. La première est la régulation. L’Union européenne a commencé à tracer un cadre avec l’AI Act, mais la traduction pratique reste incertaine. La seconde est le rappel d’un principe : aucune technologie ne peut remplacer le jugement humain. La décision politique doit rester un acte assumé, inscrit dans un débat visible et contradictoire.
Nous vivons un moment critique. La démocratie n’est pas menacée seulement par l’autoritarisme ou la violence extérieure, mais aussi par des outils techniques capables de rendre invisibles ses propres citoyens. L’IA, en politique, ne pose pas d’abord une question de performance, mais une question de reconnaissance : comment faire en sorte que chaque citoyen se sente encore vu, entendu et compté ?
Il ne suffit pas de proclamer que la démocratie survivra à l’ère des algorithmes. Il faut la protéger activement, en affirmant que son essence n’est pas l’efficacité mais la visibilité mutuelle. Une démocratie qui abandonne ses électeurs à l’invisibilité technologique risque de perdre bien plus qu’une élection : elle risque de perdre le sens même de son existence.
Jean Langlois-Berthelot
Références
• Hannah Arendt, Condition de l’homme moderne, Calmann-Lévy, 1961.
• Jürgen Habermas, Théorie de l’agir communicationnel, Fayard, 1987.
• Shaj Mohan & Divya Dwivedi, Indian Philosophy, Indian Revolution: On Caste and Politics, Bloomsbury, 2024.
• Commission européenne, AI Act, 2024.
• The Guardian, enquêtes sur Cambridge Analytica, 2018.