Avec les élections européennes à venir les 23 et 26 mai prochain, l’inquiétude monte dans les pays où les scrutins seront tenus. Si l’abstention est dans beaucoup d’esprits, le risque de manipulation des votants ou d’attaques sur les systèmes intervenant dans le déroulement de l’élection sont également très présents. Explication de Christine Dugoin-Clément, analyste pour le think tank CapeEurope et chercheur à l’Université Paris 1 Panthéon-Sorbonne.
Ce type de menaces sur les processus démocratiques ne relève plus de la science-fiction. En effet, l’augmentation des attaques dites cyber sur des systèmes précis, par exemple l’emblématique Stuxnet, ou les malewares à grande capacité de propagations qui, comme les récents WannaCry ou NotPetya semblaient viser principalement l’Ukraine, se sont répandus comme une trainée de poudre. En outre, les opérations visant à influencer directement les populations sont aujourd’hui un risque envisagé avec sérieux. De fait, outre les soupçons d’influences russes dans l’élection présidentielle de Donald Trump et la mise en évidence de trolls agissant sur différents réseaux sociaux, l’affaire de Cambridge Analytica a conduit les Etats à prendre conscience de leurs faiblesses potentielles.
Cependant, ces risques déjà connus sont-ils les seuls ? Quels seraient les enjeux d’une opération d’influence ? Quelles sont les dispositions prises pour se prémunir de telles actions et seraient-elles applicables et efficaces à l’échelle d’un État ?
La réponse étatique
La prise de conscience de l’ampleur du risque de manipulation des populations par le biais de l’information a été un choc pour les Occidentaux : même si ce risque avait déjà été identifié, il ne l’était pas à la hauteur révélée par les derniers événements. En outre, la variété des utilisations et des contenus présentés comme de l’information dans ces opérations n’avaient pas été appréhendés. En effet, outre la présentation des informations de manière orientée afin de servir un objectif précis (influence de vote ou déstabilisation d’une structure privée ou étatique), les fake news ou « fausses nouvelles » ont défrayé la chronique. Constituées de contenus totalement infondés ou partiellement falsifiés, mais présentés comme des informations avérées, les fake news s’inscrivent dans une stratégie clairement définie. Leur diffusion peut être large. Elle peut aussi être ciblée sur une population particulière dont l’opinion est déterminante pour atteindre l’objectif attendu.
L’ampleur de cette prise de conscience a abouti, en France, au vote de la loi de lutte contre la désinformation — dite loi fake news — en fin d’année 2018.
Bien que sujet de controverses, notamment quant à ses modalités d’application, ce texte témoigne également d’une prise de conscience populaire puisque 71 % de la population française estime que les fake news sont un réel problème.
Cependant, les fake news ne se trouvent pas uniquement dans les journaux. Elles peuvent aussi être véhiculées par les réseaux sociaux et des plateformes de broadcast (type de YouTube ou DailyMotion). Dans ce cas, il s’agira d’éléments publiés par des individus indépendants, ou supposés tels, car les faux profils sont en nette augmentation. Largement relayée, l’information peut rapidement devenir « virale » et atteindre des seuils de contagion impressionnants. Elle peut aussi être reprise par un média traditionnel qui légitimera ainsi, en toute bonne foi, une information pourtant erronée.
Or, 22 % des Français déclarent s’informer prioritairement sur les réseaux sociaux et les blogs, en lieu et place des médias habituels. Le risque de diffusion des fake news est d’autant plus élevé que ce chiffre atteint près de 50 % chez les plus jeunes. Différentes études montrent que la confiance accordée à la personne qui relaie l’information est déterminante dans la crédibilité de cette dernière. A titre d’exemple, une étude de 2017 montrait que 51 % des sondés, estimant un article fiable lorsqu’il était partagé par une personne de confiance, étaient peu incités à en vérifier la source ; ce taux tombe à seulement 34 % lorsque l’article est partagé par une personne en qui ils n’ont pas confiance. Les tendances sont les mêmes concernant la véracité des faits.
Un réseau social comme Facebook, qui représente 4,75 milliards de contenus partagés quotidiennement, reconnait 76 millions de faux comptes (doublons non détruits, les identité usurpés et les comptes de trolls compris) susceptibles de partager des contenus, parfois créés à dessein, au même titre que de vrais comptes.
Effets secondaires du séisme Cambridge Analytica, les plateformes -tout particulièrement Facebook — ont fait de louables efforts pour traquer les faux comptes et travailler en meilleure intelligence avec les gouvernements. Cependant, la tâche semble encore énorme et le poids des États pour imposer une politique reste faible.
Ainsi Jaeger, Bertot & Shilton indiquaient que, si les technologies et les médias sociaux « sont rapidement devenus un outil essentiel pour la diffusion d’informations gouvernementales, la connexion avec les membres du public et l’accès aux services », ils sont également un moyen de diffuser des idées potentiellement délétères pour les États.
Les réponses de la société civile
Les politiques ne sont pas les seuls à avoir pris conscience de cette évolution de l’information qui dépasse les seuls territoires en guerre pour se développer en tous lieux et à tous moments, particulièrement quand les enjeux politiques ou économiques sont importants. les journalistes y sont tout particulièrement attentifs, car la tendance des populations à rechercher les informations dans les réseaux sociaux et les blogs dénote une perte de confiance à leur égard. Ainsi, nombre de cellules de fact checking ont été mises en place : il s’agit majoritairement d’unités qui traquent les fausses nouvelles afin de les déconstruire pour restaurer la réalité d’une situation. Plus largement, la société civile participe à cet effort, non seulement au travers du fact checking , mais aussi avec l’organisation par diverses associations de séances d’inoculation, formations expliquant comment décrypter une information, une image ou un film pour en définir la véracité ou l’aspect mensonger.
Cependant, malgré toute la bonne volonté dont elles témoignent, ces opérations comportent de larges failles.
Coûteuses en temps, ces actions nécessitent de vérifier la matérialité des informations et de recueillir suffisamment d’éléments pertinents pour en démontrer l’inexactitude. De plus, ces cellules anti-fake n’ont pas toute unene sont pas de qualité homogène. Enfin, certaines d’entre elles, faisant preuve d’« hyper partisanship », ou hyper partialité, aborderaient l’exercice avec un parti pris - par exemple en formatant leurs productions pour les adapter au mieux aux attentes de leur public, ou des agendas évènementiels nationaux. Enfin, le choix même des fake news analysées peut également être biaisé. Cyniquement les auteurs de fake news ou les relais de théories alternatives utiliseront probablement la moindre erreur ou la plus petite faille pour discréditer tout le système auprès du plus grand nombre.
Attrait des réseaux sociaux… et risques d’influence
Si les études évoquées précédemment démontrent la popularité des réseaux sociaux et des plateformes de broadcast, il est intéressant d’en analyser les raisons. Il apparait que l’objectif premier des réseaux sociaux pourrait être de répondre à cinq questions : « Qui es-tu ? », « Où es-tu ? », « Que fais-tu ? », « Pourquoi le fais-tu? » et « Comment le fais-tu ? ». Or ces questions individuelles et personnelles peuvent être reprises par des tiers afin de les fédérer autour de valeurs communes permettant une meilleure cohésion des utilisateurs. En effet, répondre à ces questions peut permettre d’identifier l’autre comme un pair, de voir dans le profil interagissant sur un réseau social un individu partageant les mêmes intérêts et valeurs que le lecteur. Cet « effet miroir », qui créée un climat de confiance lié au sentiment d’appartenance à même groupe, accroîtra la crédibilité des propos.
Cette impression de proximité virtuelle, doublée de la capacité de collecter des éléments d’informations personnels sur les utilisateurs des réseaux, porte en soi un risque d’autant plus fort qu’il sera difficile à admettre pour les personnes ciblées.
En effet, une fois que sont connus les principaux traits de personnalité d’un groupe social, ses centres d’intérêt voire ses sensibilités, il sera d’autant plus facile de faire glisser sa perception d’appartenance, son désir d’identification d’un groupe vers un autre. À ce titre, une étude parue en 2018 démontrait que 1 % d’émetteurs de fake news dans un groupe peut gravement altérer les processus de coopération au sein de ce même groupe préalablement soudé. Ce type d’opération d’influence pourra se structurer sur les affinités autant que sur les répulsions ; in fine, plus l’opération pourra prendre appui sur le volet émotionnel des individus, plus efficace sera le résultat. En outre, la perception que « l’information » — ou tout du moins le contenu proposé — émane d’une personne non affiliée à un groupe partisan sera d’autant plus efficace que le geste, le partage ou le commentaire, seront perçus comme gratuits, dénués de stratégie globale, et donc sincère. Enfin, si un grand nombre d’individus relaie ou commente une information, particulièrement si ces followers partagent des points communs avec l’internaute, l’ « argumentum ad populum », la raison de la majorité, participera à crédibiliser le propos. Alors même qu’il s’avère fallacieux, l’« argumentum ad populum » fait passer la popularité d’une information pour de la fiabilité. À la lumière de ces éléments, on peut s’interroger sur la pénétration qu’aurait ce type d’opération sur des populations déjà émotionnellement très mobilisées. Ainsi un groupe social — ou un groupe identifié comme tel — perçu comme constitué d’une somme de personnalités libres de toute allégeance, d’individualités dans lesquelles l’internaute pourra se reconnaitre au travers de valeurs ou des situations partagées aura de grandes chances d’emporter son adhésion. Si une campagne informationnelle insiste sur des points communs enracinés dans des éléments affectifs ou faisant échos aux valeurs et points de vue de l’internaute, alors l’identification sera grandement facilitée. Pire, l’internaute aura le sentiment d’avoir fait son choix en toute liberté, celui-ci reflétant ses propres valeurs et ses expériences personnelles, toutes éminemment réelles et infalsifiables. Non seulement il n’aura pas conscience d’avoir été influencé, mais encore la révélation de cette manipulation lui sera d’autant moins acceptable qu’elle sera perçue comme touchant aux fondements mêmes de sa personnalité.
°
° °
L’inquiétude relative aux opérations d’influence visant les populations en période électorale n’est pas uniquement française tant s’en faut. Outre la loi votée en France, des rapports parlementaires ont été présentés en Angleterre et récemment en Australie sans parler de l’enquête américaine sur l’ingérence russe dans le dernier scrutin présidentiel. Cependant, il apparait que l’enjeu électoral à court terme n’est pas le seul qui mérite qu’on s’y attache. Le développement d’un noyau antigouvernemental actif au sein d’une population, suscité par des opérations informationnelles réalisées bien en amont d’un scrutin aura tout autant d’effets, si ce n’est plus, qu’une opération réalisée dans les semaines précédant le vote.
Actuellement, plusieurs Etats traversent des périodes incertaines et agitées qui dénotent une relation complexe et tendue avec leurs populations : à ce titre, la crise des gilets jaunes est particulièrement représentative.
Dans ce contexte de troubles et de colère il serait encore plus facile, pour des opérations informationnelles, de faire ressortir les points écho entre un groupe social de ce type et des individualités composant un autre groupe estimé stable, voire perçu comme un pilier de la société.
Altérer l’homogénéité de ce dernier groupe, en créant par exemple un mouvements de sympathie, voire de reconnaissance, à l’endroit d’une entité potentiellement bloquante pour les structures gouvernementales, affaiblirait certainement l’État. Par ruissellement, ce glissement pourrait avoir une traduction forte dans les urnes, susciter des votes radicaux ou accroître l’abstention.
L’efficacité de telles manipulations sera renforcée si elles se fondent sur des données personnelles, facilement mobilisables sur Internet. En outre, prendre appui sur des éléments que les individus considèrent comme partie intégrante de leurs personnalités participe à masquer la manipulation. Pire, l’utilisation d’éléments personnels, presque intimes, fera que si l’opération venait à être révélée, les cibles seraient enclines à la nier afin de protéger la perception qu’ils ont d’eux-même.
Au final, ce type de manipulation pouvant être un travail de longue haleine, mené sur le long terme, se focaliser uniquement sur les agendas électoraux pourrait être une faute stratégique aux conséquences lourdes si de tels agissements étaient mis en place.
Christine Dugoin-Clément
Analyste pour le think tank CapeEurope
Chercheur à l’Université Paris 1 Panthéon-Sorbonne