Jeudi matin 16 mai, au cœur du Campus Cyber, l’atmosphère était chargée d’anticipation et d’inquiétude. Réunis autour d’un petit déjeuner dense en échanges, des experts de la cybersécurité se sont plongés dans un débat crucial sur l’impact croissant de l’intelligence artificielle (IA) sur les élections. Parmi eux, le Dr Martin J. Kraemer de KnowBe4, Matthieu Dierick et Arnaud Lemaire de F5 et Adrien Merveille de Check Point Software Technologies ont partagé leurs perspectives éclairées sur un thème brûlant : « IA et désinformation en période électorale : quels impacts sur l’opinion publique ?« .
L’IA : une arme à double tranchant dans la sphère électorale
L’IA, cette avancée technologique aux vastes possibilités, se révèle être une arme à double tranchant dans le cadre des élections. Utilisée à bon escient, elle permet aux candidats de magnifier leur image publique et d’analyser avec précision les données des électeurs, ajustant leurs stratégies de manière chirurgicale. Toutefois, cette même technologie devient un outil redoutable entre les mains de malveillants, semant la désinformation et créant des deepfakes si réalistes qu’ils en deviennent indécelables.
Tout comme Sam Altman, qui s’inquiète déjà de l’utilisation potentielle de ces modèles d’IA pour diffuser de la désinformation à grande échelle, le World Economic Forum identifiait, lors de sa dernière réunion à Davos en janvier 2024, les fake news propulsées par l’IA comme une menace majeure. « Les deepfakes, ces vidéos et audios modifiés à l’aide de l’IA, représentent un danger majeur », avertit Matthieu Dierick. « Ils peuvent être utilisés pour diffamer un candidat, propager de fausses informations, et manipuler subtilement l’opinion publique ».
La capacité de l’IA à générer des contenus trompeurs constitue une menace sérieuse pour l’intégrité des processus démocratiques à l’heure où la moitié de la population mondiale est appelée aux urnes.
La désinformation : un fléau pour la démocratie
La propagation de la désinformation est un fléau qui ronge les fondements mêmes de la démocratie. Les discussions ont mis en lumière la facilité avec laquelle la confiance des électeurs peut être érodée par des campagnes de désinformation sophistiquées. « Une population désinformer est une population manipulable », souligne le Dr Kraemer. « La désinformation peut conduire à des décisions électorales basées sur des mensonges, compromettant ainsi la légitimité des résultats ».
Les États eux-mêmes ne sont pas à l’abri des tentations de manipuler l’opinion publique à travers des moyens numériques sophistiqués. Les exemples ne manquent pas, des interventions russes et chinoises dans diverses élections à travers le monde aux efforts plus subtils de manipulation interne.
Un appel à la vigilance et à la réglementation
Face à ces menaces, les intervenants ont unanimement appelé à une vigilance accrue et à une réglementation plus stricte. « Il est impératif de sensibiliser les électeurs aux dangers de la désinformation », déclare le Dr Martin J. Kraemer.
« Les technologies de détection des deepfakes doivent être développées et perfectionnées, tout comme les lois doivent être renforcées pour prévenir les abus ».
La lutte contre la désinformation nécessite également une responsabilisation des plateformes numériques. Les géants des réseaux sociaux, trop souvent laxistes, doivent être tenus responsables du contenu qu’ils hébergent. « Les lois actuelles sont insuffisantes », note Arnaud Lemaire. « Il faut des mesures morales et légales contraignantes pour obliger ces plateformes à agir contre la désinformation ».
Les défis technologiques et éthiques
Toutefois, la technologie seule ne peut pas tout résoudre. Les deepfakes audio, par exemple, posent des défis particuliers de détection et les cybercriminels améliorent constamment leurs techniques. Quant à l’informatique quantique, elle possède un potentiel de calcul immense qui pourrait offrir de nouvelles solutions, mais aussi de nouveaux défis. Cependant, cette technologie en est encore à ses débuts.
En outre, des mesures comme le blocage des réseaux sociaux via des DNS ou l’utilisation de VPN pour contourner ces blocages soulèvent des questions éthiques et légales. « Le blocage est une solution temporaire car il existe toujours des moyens de le contourner », explique Adrien Merveille. « Et il soulève des interrogations sur la liberté d’expression et l’accès à l’information ».
Vers une approche multidimensionnelle
La conclusion des discussions fut claire : la lutte contre l’utilisation abusive de l’IA dans les élections est un défi complexe nécessitant une approche multidimensionnelle. La sensibilisation, la réglementation et le développement de nouvelles technologies doivent aller de pair. La responsabilité des plateformes, le renforcement des lois, et l’amélioration de la cybersécurité électorale sont autant de pistes à suivre.
« La démocratie est un bien précieux et fragile », a conclu le Dr Kraemer. « Pour la protéger, nous devons être prêts à défendre la vérité avec toutes les armes à notre disposition. Et cela commence par une prise de conscience collective des dangers de la désinformation et une action concertée pour y faire face ».
Ainsi, au-delà des mots échangés autour du petit déjeuner de presse de l’agence Cymbioz, une certitude émerge : l’avenir des élections libres et justes dépend de notre capacité à maîtriser les ombres de l’IA et à éclairer la voie de la vérité.
Paul Lusseau