• Contact
  • Abonnez-vous
  • Contribuez
Panier / 0,00 €

Votre panier est vide.

Lire Le dernier numéroLe dernier numéro
Revue Politique et Parlementaire
  • Se connecter
S'abonner
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • La cité des débats
    • Faut-il avoir peur de l’avenir ?
    • Aimons-nous encore la liberté ?
    • Savoir, pouvoir et démocratie
    • S’engager au 21ème Siècle
  • Le printemps des techno
    • Edition 2023
    • Edition 2024
    • Edition 2025
  • Boutique
    • Les numéros
    • Abonnement
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • La cité des débats
    • Faut-il avoir peur de l’avenir ?
    • Aimons-nous encore la liberté ?
    • Savoir, pouvoir et démocratie
    • S’engager au 21ème Siècle
  • Le printemps des techno
    • Edition 2023
    • Edition 2024
    • Edition 2025
  • Boutique
    • Les numéros
    • Abonnement
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
Aucun résultat
Voir tous les résultats
dans N°1113

L’État de droit numérique face au chaos disruptif : pour une politique européenne de l’intelligence artificielle

ParAnne Alombert
21 juillet 2025
Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
Libre opinion

La récente campagne présidentielle américaine a été profondément affectée par l’IA : qu’il s’agisse des algorithmes de recommandations du réseau X manipulés par Musk ou des modèles de langage permettant de produire des contenus truqués, la circulation des idées dans l’espace public se voit perturbée. Est-il encore possible d’envisager des démocraties numériques dans un tel contexte ? Après l’émergence de Deepseek et à l’occasion du sommet sur l’IA, il est plus que jamais nécessaire pour l’Europe d’ouvrir une troisième voie, par- delà les modèles américains et chinois, fondés sur les réseaux antisociaux et l’IA extractive.

Dans son livre intitulé Les ingénieurs du chaos et publié en 2019, le chercheur Giulano da Empoli avait montré que le vote du Brexit au Royaume-Uni, la première élection de Trump aux États-Unis, ou encore celle de Bolsonaro au Brésil ou celle de Salvini en Italie, étaient en grande partie liées au travail acharné des équipes de spin doctors, experts en data marketing, qui œuvraient dans l’ombre pour façonner l’image des leaders autoritaires sur les réseaux sociaux afin de les conduire au pouvoir, en influençant la circulation des informations et le déroulement des élections. Ces « ingénieurs du chaos » ont de nombreuses techniques à leur disposition. Il peut s’agir d’algorithmes de recommandation biaisés, de ciblage politique personnalisé, mais aussi d’ « astroturfing » – technique qui consiste à simuler un mouvement populaire spontané dans les intérêts d’un groupe politique ou industriel, à travers la création massive de faux comptes permettant de faire gonfler la présence d’un candidat, d’une idée ou d’un produit sur les réseaux. Cinq ans plus tard, le travail de ces ingénieurs du chaos n’a plus rien de secret : il est apparu au grand jour lors de la dernière campagne électorale américaine, qui s’est caractérisée par la diffusion massive de fausses informations, la circulation virale de contenus truqués et le ciblage publicitaire biaisé.

Le candidat républicain Donald Trump était par ailleurs explicitement soutenu par l’entrepreneur milliardaire Elon Musk, lui-même devenu propriétaire du réseau Twitter (renommé X) deux ans auparavant.

Les manipulations informationnelles ont atteint un tel degré, que depuis la réélection de Trump le 5 novembre dernier, et la nomination consécutive de Musk à la direction du Département de l’Efficacité Gouvernementale (DOGE), certains médias européens, parmi lesquels The Guardian, La Vanguardia ou encore Ouest France ont annoncé leur départ définitif de la plateforme X2.

LA DISRUPTION NUMÉRIQUE DES ÉLECTIONS

En effet, depuis son rachat en 2022, Musk est parvenu à transformer l’un des principaux réseaux sociaux en une véritable machine d’influence et de propagande au service du candidat républicain. Il s’est lui-même livré à des manœuvres dignes de celles des ingénieurs du chaos, postant des messages quotidiens à ses centaines de millions d’abonnés, amplifiant l’audience des influenceurs pro-Trump à travers les algorithmes de recommandation ou diffusant des messages biaisés, par l’intermédiaire du financement de différents Political Action Commitee achetant et diffusant des publicités ou informations trompeuses sur les réseaux les plus utilisés.

Sans relativiser la gravité de cette récente actualité, il faut pourtant rappeler que la perturbation des processus électoraux par les réseaux sociaux commerciaux n’est pas une nouveauté, et que le réseau X est loin d’être le seul concerné.

Les élections présidentielles américaines de 2016 avaient déjà été marquées par le scandale de l’affaire Facebook-Cambridge Analytica, qui avait révélé l’exploitation des données de millions d’utilisateurs de Facebook par l’entreprise Cambridge Analytica, permettant alors au comité de campagne de Trump d’influencer les votes des électeurs indécis, auxquels des informations ciblées avaient été envoyées. Plus récemment, ce sont les élections présidentielles roumaines qui ont témoigné du même type de problème : la Cour constitutionnelle de Roumanie s’est vue contrainte d’annuler le second tour en novembre dernier, en raison de révélations concernant cette fois la plateforme TikTok, soupçonnée d’avoir accordé un traitement préférentiel au candidat pro- russe et ultranationaliste Calin Georgescu à travers ses algorithmes. Le réseau Facebook était également mis en cause : dans la même période, une vingtaine de pages Facebook plaidant pour la candidature de Georgescu auraient dépensé entre 140 000 et 220 000 euros pour donner de l’audience à leurs publications.

Depuis, Mark Zuckerberg, dirigeant de l’entreprise Meta (propriétaire de Facebook), a annoncé vouloir interrompre le programme de « fact-checking » de Facebook et simplifier les règles de modération sur la plateforme, en vue de favoriser la prétendue « liberté d’expression » chère à Musk, alors même qu’en 2019, l’entreprise Meta est dite avoir supprimé 6,5 milliards de faux comptes sur Facebook et que les Facebook Files révélés par Frances Haugen en 2021 ont montré que de nombreux journalistes et politiciens européens s’étaient plaints auprès de Facebook du fait que l’algorithme de recommandation les obligeait à adopter des positions clivantes et haineuses pour survivre financièrement et médiatiquement sur le réseau.

Autrement dit, la prétendue « liberté d’expression » ne vaut que pour ceux qui publient des messages clivants susceptibles de « maximiser l’engagement des utilisateurs » ou bien pour ceux qui sont prêts à acheter des faux comptes afin de gonfler artificiellement le nombre de vues de leurs contenus.

Évidemment, la promotion de la liberté d’expression n’est qu’une rhétorique permettant aux propriétaires des réseaux d’éviter tout contrôle potentiel sur leurs plateformes et toute limite éventuelle à leurs profits. En adoptant la rhétorique et les pratiques du propriétaire de X, le propriétaire de Facebook s’aligne en fait avec les intérêts à court terme du modèle d’affaire de son entreprise, qui est plus ou moins le même que celui de X (et de TikTok), à savoir, le modèle de l’économie de l’attention, fondé sur la collecte des données et les « technologies persuasives ».

LES RÉSEAUX ANTISOCIAUX : INFOCRATIES, ALGOCRATIES, HYPNOCRATIES

Comme le montre un récent rapport du Conseil National du Numérique, les services apparemment gratuits des réseaux sociaux commerciaux ont pour objectif de nous maintenir connectés le plus longtemps possible : il s’agit de collecter nos données et de capter nos attentions, dans le but de les revendre à des annonceurs à des fins de ciblage publicitaire ou à des partis en vue de propagande politique. Or rien de tel que la recommandation massive de contenus choquants, sensationnels ou polarisés pour « maximiser l’engagement des usagers » : de tels contenus provoquent des réactions immédiates et impulsives très profitables pour les entreprises.

Et peu importe si les contenus recommandés ont des effets destructeurs sur les environnements ou sur les subjectivités : comme le montrent les études du Center for Countering Digital, cette logique pousse Facebook à recommander des contenus climatosceptiques et TikTok à enfermer les « profils » psychologiques fragiles dans des boucles informationnelles toxiques, si bien qu’il est aujourd’hui permis de se demander ce que les dits réseaux (anti-)sociaux apportent aux sociétés. Le gouvernement australien a d’ailleurs récemment interdit leur utilisation aux moins de 16 ans, symptôme d’une inquiétude grandissante à l’égard de ces prétendues innovations.

Plus généralement, les réseaux (anti-)sociaux commerciaux et les dommages qu’ils font subir aux régimes démocratiques semblent désormais faire l’objet de nombreuses préoccupations : ainsi se multiplient les ouvrages consacrés à l’ « infocratie », aux « algocraties » ou à l’ « hypnocratie ».

On ne peut que se réjouir d’une telle prise de conscience collective, mais pour éviter de faire des algorithmes des bouc- émissaires faciles, il est nécessaire de prendre un peu de recul sur la situation actuelle, et de se souvenir que ces mécanismes d’influences ne sont pas nés avec les technologies numériques. Edward Bernays, spécialiste américain des « relations publiques » et de la propagande politique, identifiait déjà ce type de manipulations à l’époque de la presse imprimée : il évoquait par exemple la technique qui consiste à envoyer en masse de (faux) courriers des lecteurs à un journal pour l’influencer, qui n’est pas sans rappeler l’actuel astroturfing automatisé. Le philosophe Bernard Stiegler, quant à lui, parlait déjà de « télécratie » au siècle dernier, pour souligner l’emprise des chaînes de télévision privées sur les consciences des citoyens devenus un marché d’audience à capturer. Il avait également averti contre les dangers des « fourmilières numériques » avant même que Facebook ne soit créé.

Il n’est donc pas très surprenant qu’une « dictature des algorithmes » puisse désormais régner : nous avons laissé tout pouvoir aux géants du numérique sur nos environnements informationnels quotidiens, désormais presque intégralement privatisés et largement vulnérables aux manipulations des industries de la désinformation, transformant les citoyens en marchés de profils à contrôler. Aussi, s’il peut être utile d’analyser les « infocraties », « algocraties », « hypnocraties » ou autres « technopolitiques ».

Cela ne devrait pas nous empêcher d’interroger notre propre responsabilité dans les problèmes actuels, afin de ne pas répéter les erreurs du passé.

LE PROBLÈME DE LA RECOMMANDATION ALGORITHMIQUE

Avant de subir les dits « revirements » de Zuckerberg ou de Musk, ne serions-nous pas en train de subir les conséquences de nos propres aveuglements ? En effet, les réseaux sociaux numériques sont longtemps apparus comme des vecteurs de décentralisation et d’horizontalité, dans la mesure où, contrairement aux médias analogiques (presse, radio, télévision), ils permettent à chacun de publier un contenu individualisé. Nous découvrons aujourd’hui, pour ceux et celles qui ne l’avaient pas déjà compris, que cette apparence de décentralisation et d’horizontalité masque en fait une extrême centralisation et une extrême verticalité. Si tout un chacun est libre de publier du contenu, seuls les contenus recommandés par les algorithmes sont vus, les autres demeurent invisibilisés : ce sont les algorithmes de recommandation élaborés en toute opacité par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra jamais.

Est-il bien légitime de laisser aux entreprises propriétaires de ces réseaux commerciaux le pouvoir de décider ce qui doit être vu ou ce qui doit être invisibilisé ?

Est-il bien raisonnable de leur laisser un contrôle hégémonique sur les systèmes de recommandation régissant la circulation des informations, alors qu’elles n’assument pas le statut d’éditeurs de contenus ? De quel droit nous imposent-elles leur ligne éditoriale par l’intermédiaire de leurs algorithmes ? Dans des sociétés à prétention démocratique, qui promeuvent la liberté d’expression et de pensée, les décisions concernant la publicité et l’invisibilisation des informations ne devraient-elles pas être prises collectivement par les citoyens en vue de leurs intérêts communs, et non de manière centralisée par quelques entreprises californiennes (ou chinoises) en vue de leurs intérêts privés ?

L’exercice démocratique suppose la protection minimale des libertés d’expression et de pensée, qui implique elle-même un espace de publication permettant à la diversité des points de vue de coexister. Comment permettre une circulation démocratique de l’information dans l’espace de publication numérique ? Telle est sans doute la question sur laquelle nous avons fermé les yeux depuis trop longtemps, et qu’il faudrait désormais se poser. Autrement dit, on aurait tort de limiter le problème aux personnalités de Musk ou Zuckerberg : la disruption des processus électoraux par les algorithmes des géants du numérique constitue un problème structurel, qui implique de questionner le fonctionnement même de nos environnements numériques informationnels.

VERS DES RÉSEAUX VRAIMENT SOCIAUX ?

De quels leviers disposons-nous pour agir sur ce problème ? La réglementation européenne sur les services numériques (Digital Services Act) votée en octobre 2022 et entrée en vigueur en février 2024 a certainement un rôle à jouer : l’interdiction des dark patterns et de la publicité ciblée sur mineurs, l’obligation de fournir des outils de signalement aux usagers (pour repérer les fausses informations) et l’obligation de transparence sur les algorithmes de modération et de recommandation apparaissent comme autant de leviers pour lutter contre les mécanismes d’influences algocratiques des géants du numérique. Mais compte-tenu des récentes positions prises par les directeurs généraux des plus puissants réseaux sociaux commerciaux,

l’Europe devra sans doute s’affirmer avec plus de fermeté si elle veut promouvoir d’autres valeurs que celles du techno- libertarianisme américain ou du crédit social chinois.

Dans ce contexte, la proposition du « dégroupage » des réseaux sociaux, portée par de nombreuses associations et institutions (comme l’ONG Article 19 et le Conseil National du Numérique) semble d’une grande pertinence. Cette mesure conteste l’hégémonie des plateformes sur toutes les fonctions et services qu’elles regroupent (recommandation, modération, suspension des comptes, stockage des données, messagerie instantanée, etc.) et affirme le droit d’autres entités à assumer certaines de ces fonctions ou à fournir d’autres services sur les plateformes elles-mêmes. Le dégroupage permettrait d’obliger les réseaux sociaux commerciaux à renoncer à leur hégémonie sur la fonction de recommandation et de s’ouvrir à d’autres services de recommandation, laissant aux utilisateurs la liberté de choisir quel système leur recommande les contenus, selon quels critères et dans quel but. Dès lors, se connecter sur X, sur TikTok ou sur Facebook n’impliquerait plus nécessairement de se soumettre aux recommandations de ces plateformes et aux choix idéologiques implémentés dans leurs algorithmes.

C’est déjà ce qui se joue sur des réseaux comme Bluesky ou Mastodon, dans lesquels la recommandation n’est pas entre les mains de l’entreprise propriétaire du système. Sur Bluesky, il est possible pour des entités tierces (citoyens, médias, organisations diverses et variées) de proposer à l’ensemble des utilisateurs des algorithmes de recommandation, et les individus peuvent paramétrer les algorithmes ou avoir recours à des applications tierces. Sur Mastodon, plateforme de micro-blogging décentralisée et conçue sur la base du logiciel libre, il n’y a pas d’algorithme de recommandation, les contenus sont classés chronologiquement en fonction des comptes suivis par les individus, mais les usagers peuvent aussi configurer leurs fils d’actualités. Sans surprise, les techniques d’influence et de propagande des ingénieurs du chaos ne fonctionnent pas sur ces réseaux.

Alors que les réseaux (anti-)sociaux commerciaux suscitent de plus en plus de méfiance partout dans le monde, ces réseaux sociaux non-commerciaux attirent de plus en plus de citoyens. Entre l’été et l’hiver 2024, le nombre d’utilisateurs de Bluesky a triplé. En 2022, lorsque le réseau Twitter était devenu la propriété d’Elon Musk, une vague de départ lui avait déjà bénéficié, ainsi qu’à Mastodon, au point que Musk avait alors empêché le partage de liens renvoyant vers Mastodon sur X, et fermé le compte officiel de Mastodon, pour éviter tout succès potentiel de ce qu’il considère certainement comme un concurrent. Contrairement à ce que l’on voudrait nous faire croire, les réseaux (anti-)sociaux commerciaux ne sont donc pas les seuls réseaux possibles : des alternatives existent, qui ne se fondent pas sur le modèle de l’économie de l’attention et qui n’exercent pas de pouvoir hégémonique sur la fonction de recommandation :

Autrement dit, qui respectent les libertés d’expression et de pensée nécessaires à l’exercice démocratique.

 

VERS UN PLURALISME ALGORITHMIQUE ?

Si l’Europe entend fournir des alternatives aux réseaux anti-sociaux, elle a tout intérêt à investir dans et à soutenir de telles plateformes décentralisées et non commerciales, en expérimentant de nouveaux modèles économiques et technologiques, qui permettent aux citoyens de reprendre la main sur leurs espaces informationnels quotidiens. En ce sens, les régulateurs et les gouvernements pourraient s’engager à sanctionner économiquement les modèles extractifs fondés sur la publicité, à interdire les systèmes non sécurisés (vulnérables aux faux comptes ou aux bots) et à soutenir « les initiatives émanant de la société civile, du monde universitaire ou d’autres acteurs à but non lucratif ». Quand il s’agit des environnements médiatiques et des technologies de publication constitutives de l’espace public, la puissance publique a un rôle essentiel à jouer pour réguler les acteurs dominants et pour soutenir le développement d’espaces informationnels indépendants.

N’était-ce pas le rôle du service public audiovisuel en son temps ?

Et si l’audiovisuel public semble souvent avoir adopté les mêmes logiques (d’audimat) que les chaînes privées, est-ce une raison pour renoncer à démocratiser les réseaux numériques, désormais devenus les principales sources d’informations des jeunes générations ?

Certainement pas, car le numérique présente justement de nouvelles potentialités qui demeuraient impensables du temps des médias analogiques, prisonniers de l’alternative entre public et privé. Les réseaux numériques pourraient au contraire devenir de véritables milieux associés, organisés non pas seulement par l’État ou seulement par des entreprises privées, mais en associant les citoyens et la société. C’est précisément ce que permettraient des algorithmes de recommandation collaboratifs, comme celui que propose l’association Tournesol, dont l’objectif n’est pas de recommander les contenus les plus vus pour augmenter les profits ou de recommander les contenus les plus favorables à tel ou tel parti, mais de recommander les contenus qui ont été jugés d’une grande utilité publique par les citoyens qui les ont évalués selon des critères partagés (par exemple, clarté, fiabilité, qualité, etc.).

Au-delà de la proposition de Tournesol, pionnière dans ce domaine, différents systèmes de recommandation de ce type pourraient être développés par des médias, des institutions académiques, des acteurs associatifs, qui se verraient ainsi dans la capacité de recommander des contenus selon des critères diversifiés et transparents, qui s’appuient sur les avis de différentes communautés de pairs et non sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques. Dès lors, un véritable « pluralisme algorithmique » pourrait voir le jour dans l’espace informationnel numérique, comme le recommande le récent rapport États Généraux de l’Information, ainsi que de nombreuses personnalités, associations, et entreprises françaises et internationales.

Le « pluralisme algorithmique » apparaît désormais comme la principale condition de possibilité technologique de la vie démocratique, comme l’était en son temps le pluralisme de la presse et des médias.

Dans un contexte où la concentration médiatique bat son plein dans le champ de la presse imprimée et des médias audio- visuels, et où la toxicité des réseaux anti- sociaux ne cesse de s’accentuer, il serait temps d’envisager cette transformation de l’espace informationnel numérique.

LES RECOMMANDATIONS QUALITATIVES CONTRE L’IA GÉNÉRATIVE

En effet, seuls de tels algorithmes de recommandation qualitatifs et certifiés permettraient de recréer de la confiance dans les contenus diffusés, car les individus sauraient qui les leur recommande et selon quels critères. Dès lors, ce ne seraient plus les recommandations algorithmiques des entreprises privées qui influenceraient la diffusion des informations et les opinions des usagers, mais ce seraient les évaluations de différents groupes de pairs qui influenceraient les algorithmes et qui sélectionneraient les contenus recommandés. Dans le contexte du développement fulgurant des « intelligences artificielles génératives », de tels systèmes de sélection et de recommandation certifiés s’avèrent de plus en plus essentiels.

Les dites « intelligences artificielles génératives », dont on nous vante sans cesse les nouvelles performances, permettent en effet de générer des textes, des sons, des images ou des vidéos truquées en quantité industrielle. Là encore, la campagne présidentielle américaine a fourni de nombreux exemples symptomatiques. Durant les primaires démocrates, dans le New Hampshire, certains électeurs ont reçu un appel simulant la voix de Joe Biden leur déconseillant d’aller voter : le consultant politique Steve Kramer, à l’origine de ce canular, a été condamné à une amende de 6 millions de dollars par la Federal Communications Commission.

Durant la campagne présidentielle, des images générées par IA figurant Trump entouré de (faux) supporters afro-américains ont également été propagées sur les réseaux par certains partisans du futur président.

Cela n’a rien d’étonnant : grâce aux IA génératives, il est désormais possible de produire des images de n’importe quelle personnalité, en s’appuyant sur les photos contenues dans les bases de données, ou de simuler artificiellement n’importe quelle voix, à partir de quelques secondes d’enregistrement, si bien que n’importe quel contenu truqué peut être aisément fabriqué. Dans un tel contexte, les citoyens ne tarderont pas à s’habituer à ne plus pouvoir croire ce qu’ils lisent, ce qu’ils entendent et ce qu’ils voient. Une défiance généralisée risque alors de se développer, qui fragilisera encore plus la cohésion de sociétés déjà très polarisées. L’environnement numérique informationnel ne pourra redevenir un espace de confiance interpersonnel que si ce sont des collectifs humains et diversifiés qui recommandent les contenus : peu importe alors comment le contenu a été produit, ce qui compte, c’est que je puisse savoir qui me le recommande et selon quels critères, de même que lorsque j’ouvre un journal, je sais que tel article ou telle image est certifié par les pairs.

La conception et le développement des systèmes de recommandation collaboratifs, qualitatifs et certifiés, constituent par ailleurs un champ de recherches passionnant, articulant mathématiques, algorithmique, théorie des médias, sciences politiques, philosophie, etc. Scientifiquement, la conception et le développement de tels systèmes de recommandation présentent des intérêts majeurs, car ils supposent d’articuler les calculs algorithmiques avec les évaluations et les jugements humains (et non seulement d’effectuer des calculs probabilistes sur des quantités massives de données, à l’image des principaux modèles de langage ou de diffusion actuellement développés). De plus, de telles innovations sont soutenables sur le plan environnemental, contrairement aux IA génératives, extrêmement coûteuses sur le plan énergétique, en raison des infrastructures de stockage des données et des puissances de calcul nécessaires pour leur entraînement.

PAR-DELÀ CHATGPT ET DEEPSEEK, QUELLE POLITIQUE EUROPÉENNE NUMÉRIQUE ?

Les systèmes de recommandation collaboratifs et qualitatifs et les réseaux sociaux alternatifs constituent donc des modèles de développements technologiques vraiment innovants, à la fois scientifiquement, socialement et écologiquement. S’ils attendent encore leurs modèles économiques, ils devraient être au principe d’une politique européenne du numérique qui se distinguerait ainsi du modèle américain comme du modèle chinois, qui sont en grande partie les mêmes.Quelle différence,en effet,entre
un réseau (anti-)social comme Facebook et un réseau (anti-)social comme TikTok ? Tous deux enferment leurs usagers dans des bulles informationnelles et engendrent des comportements mimétiques, tous deux se fondent sur l’économie des données et l’exploitation des ressources psychiques. Quelle différence entre « l’intelligence artificielle extractive» de ChatGPT et celle de Deepseek ?

Les deux systèmes automatisent nos capacités expressives, exploitent notre culture collective, permettent de générer des fausses informations et d’alimenter des faux comptes, accélérant ainsi les effets de défiance et de propagande.

Certains s’extasient désormais devant Deepseek, le modèle chinois qui a été produit à un coût très largement inférieur à celui de ses concurrents, et qui serait censé permettre de considérables économies en termes de puissance de calcul et d’énergie. Sans doute, mais c’est sans compter sur l’effet rebond, qui ne manquera pas de se produire dans le contexte de la guerre économique et du capitalisme numérique : les économies de ressources initialement prévues se voient vite compensées car les usages sont démultipliés…

Par ailleurs, aussi spectaculaire soit la prouesse de Deepseek sur le plan pu- rement industriel, du point de vue psychique, social, technologique et politique, il ne s’agit même pas d’une « innovation » digne de ce nom. Rien de nouveau en effet dans un modèle qui a pour fonction de nourrir des « agents conversationnels » et qui vise le développement d’une IA générale capable de se développer par elle-même : les fonctionnalités technologiques et les programmes idéologiques qui animent Deepseek ne semblent pas très différents de ceux de la Silicon Valley. Pourtant, le prix Nobel d’économie lui-même invite l’Europe à se détourner de ces gadgets prolétarisants et consuméristes et de ce programme d’automa- tisation généralisée : « l’IA doit sortir du carcan de la simple imitation », affirme courageusement Daron Acemoglu, « le futur de l’Europe n’est pas l’IA de la Silicon Valley ». Face à des modèles extractifs délétères sur les plans psychiques, sociaux, politiques et environnementaux, l’Europe a tout intérêt à ouvrir un nouvel espace des possibles technologiques, économiques et juridiques.

S’il est nécessaire d’investir dans des modèles d’IA indépendants ainsi que de garantir une souveraineté sur les infrastructures numériques, sommes-nous pour autant condamnés à imiter des géants que nous ne pourrons jamais dépasser ? L’Europe et ses différentes nations n’ont-elles pas plutôt vocation à réguler et à innover, pour montrer que des États de droit numériques sont possibles, par-delà les « armes de destruction massives de nos démocraties» que constituent aujourd’hui les technologies disruptives ? À l’heure où les réseaux anti-sociaux et les IA extractives se révèlent dans toute leur toxicité, la compétition n’est peut-être pas la seule solution : nous pourrions aussi miser sur la « technodiversité ». Il ne s’agirait alors pas d’être le plus fort, le plus grand, le plus puissant ou le plus performant, mais tout simplement d’être différent. Le retard n’a de sens que pour celui qui s’est engagé dans la course, il n’en a aucun pour celui qui ouvre un nouveau chemin : le prétendu « retard » technologique de l’Europe pourrait devenir une force, si nous parvenions à le convertir en un véritable projet politique, en œuvrant collectivement pour un numérique démocratique.

Anne Alombert

MCF Philosophie, Université Paris 8 Membre du Conseil National du Numérique

 

Anne Alombert

Partager sur LinkedinPartager sur XPartager sur Facebook

Les derniers articles

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire

L’État de droit numérique face au chaos disruptif : pour une politique européenne de l’intelligence artificielle

ParAnne Alombert

La récente campagne présidentielle américaine a été profondément affectée par l’IA : qu’il s’agisse des algorithmes de recommandations du réseau...

La mécanique totalitaire dans la nouvelle Constitution du Nicaragua

La mécanique totalitaire dans la nouvelle Constitution du Nicaragua

ParDavid Biroste

Petit pays pauvre d'Amérique centrale avec une superficie de 130 000 km² et une population de 7 millions d'habitants, le...

François Bayrou seul responsable ?

François Bayrou seul responsable ?

ParClaude Nicolet

Le Premier ministre s'est livré, devant son Gouvernement et devant la presse, à un exercice qu'il a intitulé "le moment...

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire

À quoi sert le SIG ?

ParPhilippe Guibert

Voilà bien un objet politico- administratif mal identifié, sujet aux fantasmes sur son pouvoir supposé, comme aux critiques sur son...

Retrouvez nos dernières vidéos

«
Prev
1
/
85
Next
»
loading
play
Les conférences de 18h59 – Rassemblement de soutien à Boualem Sansal
play
Printemps des Technologies – Démocratie, technologies et souveraineté
play
Printemps des Technologies – Histoire et initiation aux cryptomonnaies et au Bitcoin
«
Prev
1
/
85
Next
»
loading

Inscrivez-vous à notre Newsletter

Related Posts

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

À quoi sert le SIG ?

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

Alfred de Vigny, poète et penseur politique

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

Le centrisme existe-t-il dans l’opinion ?

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

Patrick Leigh Fermor « Entre Indiana Jones, James Bond et Graham Greene »

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

En Afrique, communication rime avec imagination…

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

Le choix des mots en diplomatie

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

Le défi de la communication politique brésilienne dans un monde plateformisé

Tous démocrates, peut-être mais voulons-nous la République ou l’Empire
N°1113

On ne peut pas faire l’économie d’une défense collective

La Revue Politique et Parlementaire
10 rue du Colisée 75008 Paris
Email : contact@revuepolitique.fr
Téléphone : 01 76 47 09 30

Notre Histoire
L'équipe
Mentions légales

Culture
Economie
Faut… de la géopolitique
International
La tribune du parlementaire
Libre opinion
Politique
Science et technologie
Société
Vie du parlement
Nos vidéos

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Se connecter

Add New Playlist

Aucun résultat
Voir tous les résultats
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • La cité des débats
    • Faut-il avoir peur de l’avenir ?
    • Aimons-nous encore la liberté ?
    • Savoir, pouvoir et démocratie
    • S’engager au 21ème Siècle
  • Le printemps des techno
    • Edition 2023
    • Edition 2024
    • Edition 2025
  • Boutique
    • Les numéros
    • Abonnement

Revue Politique et Parlementaire