Par orgueil, par appât du gain, par soif de pouvoir, par maladresse ou naïveté et dans un contexte de course mondiale à l’excellence, de pression sociétale et médiatique, un scientifique peut être amené à trahir sa vocation : la quête de la vérité. Jean-Gabriel Ganascia s’est particulièrement intéressé aux différentes formes du mensonge dans les technosciences.
Science et vérité
Lors de l’ouverture des cérémonies des 80 ans du CNRS, le 1er février 2019, le Premier ministre, M. Édouard Philippe, a commencé son discours1, non sans malice, en citant un passage de la préface de Raymond Aron à l’ouvrage de Max Weber intitulé Le savant et le politique : « La vocation de la science est inconditionnellement la vérité. Le métier du politicien ne tolère pas toujours qu’on la dise ». Sans doute, la première phrase de cette citation est-elle indubitable : la vocation du scientifique est assurément et, sans condition, la vérité ! Son but est de s’en approcher, autant qu’il le peut, et de la rendre publique. Pour autant, le scientifique, en dépit de son inclination naturelle, est-il parfois conduit à faire des entorses à sa destination naturelle. Ce sont des différentes situations où il se trouve amené, que ce soit par orgueil, par appât du gain, par soif de pouvoir ou par maladresse et naïveté, à renoncer à sa vocation originelle à la vérité dont nous allons parler dans cet article, en gageant que cela aidera à trouver les parades pour éviter que les scientifiques sortent du droit chemin.
Il y va de l’intégrité scientifique, au sens étymologique, à savoir de ce qui évitera la corruption du scientifique qui en vient à trahir sa vocation pour améliorer son quotidien.
Nous examinerons aussi des situations plus délicates où le scientifique, par goût prononcé pour ses recherches, et donc par fidélité à sa vocation de savant qui est de continuer sans relâche sa quête de vérité, se croit contraint par le politique de faire des entorses à la vérité, sachant que, ce dernier, pour des raisons qui font écho à la seconde phrase de la citation de Raymond Aron, « ne tolère pas toujours qu’on la dise ». Des situations de cet ordre adviennent non pas dans la science pure, dénuée d’autres finalités que la connaissance, mais dans ce qu’on appelle parfois, en utilisant un néologisme déprécatif forgé par le philosophe belge Gilbert Hottois, les technosciences, c’est-à-dire l’intrication des sciences et des techniques, car ce sont des domaines qui portent sur des applications pratiques et dont les enjeux paraissent, de ce fait, majeurs pour l’ensemble de la société.
Fraudes
Le scientifique ment sciemment lorsqu’il fraude, soit qu’il invente des données d’observation, soit qu’il les modifie à sa guise. Pour préciser, rappelons qu’on caractérise2 souvent la fraude par le sigle FFP qui signifie « fabrication, falsification et plagiat ». Une description claire en a été donnée par Anne Fagot-Largeault3.], qui elle-même s’inspire de définitions publiées par l’OSTP (US Office of Science and Technology Policy)4, aussi, nous ne nous appesantirons pas ici sur ce sujet car il a déjà été bien traité ailleurs, sauf à dire que, du point de vue du chercheur, ces inconduites paraissent impardonnables en ce qu’elles mettent en cause la démarche scientifique elle-même et contribuent à décrédibiliser la science aux yeux du public. Il s’ensuit aussi que l’on devrait distinguer d’un côté la tricherie, ou plus précisément la falsification et la fabrication de données, qui attestent d’un manque désastreux de confiance dans la démarche scientifique, et d’un autre côté le plagiat, qui s’apparente plus à un larcin commis contre ses collègues et qui, en ce sens, relève d’une forme de délinquance ordinaire. Dans le premier cas, le mensonge porte, si l’on peut dire, sur la vérité elle-même, en cela qu’il affecte les résultats scientifiques en essayant de faire passer le faux pour le vrai, tandis que dans le second il porte sur la paternité des résultats de la recherche, et donc sur le bénéfice de la découverte dont certains tentent de spolier le découvreur, pour se l’approprier. Il paraît bien difficile de hiérarchiser, dans l’ordre de l’indigne, entre ces deux attitudes, si ce n’est que la première porte sur le chercheur en tant que tel lorsqu’il fait fi de sa vocation à rechercher la vérité, en croyant que cela passera inaperçu.
Sans doute, les motivations de ceux qui se livrent à de telles turpitudes relèvent-elles de l’appât du gain : on veut soit fabriquer l’équivalent d’une fausse monnaie, à savoir un résultat scientifique qui n’existe pas, soit s’approprier le résultat d’un autre. Néanmoins, et sans exonérer ceux qui s’adonnent à de telles pratiques de ce qu’il y a là d’impardonnable, il convient d’essayer d’appréhender les situations dans lesquelles les chercheurs sont soumis à cette tentation, pour éviter, autant que faire se peut, que cela se reproduise : la plupart du temps, cela tient à une pression déraisonnable à la publication qui fait que, des chercheurs, pour parvenir à une situation stable dans le secteur de la recherche, et donc essayer de rester chercheur, doivent faire état, coûte que coûte, d’un certain nombre de résultats, au risque de tricher ou de voler. Pour limiter cela, il conviendrait donc soit de limiter le nombre de ceux qui croient pouvoir prétendre à une situation stable, en restreignant par exemple le nombre de financements de thèses, ce qui risque d’être fort impopulaire, soit d’accroître dans une proportion significative le nombre de postes de chercheurs et d’enseignants-chercheurs, soit encore de changer les indices d’évaluation de la recherche, en sorte qu’ils soient moins tributaires d’une comptabilité aveugle du nombre de publications.
Conflits d’intérêts
Avec la fraude, le mensonge porte sur la vérité scientifique que certains fabriquent artificiellement, avec de fausses preuves, ou dont ils s’attribuent indûment la paternité lorsqu’ils plagient. Cependant, l’activité des chercheurs ne se restreint pas à la production scientifique elle-même : ces derniers contribuent aussi à l’évaluation soit de leurs collègues, soit de projets scientifiques, et à des tâches d’expertise. Or, dans toutes ces activités annexes, qui ne débouchent pas directement sur la quête de connaissances nouvelles, mais qui mobilisent le savoir acquis pour fournir un jugement utile à la collectivité, il arrive que l’on suspecte les scientifiques d’absence de neutralité et de biais en faveur de l’une des parties au détriment de l’autre. Cette partialité tiendrait à ce que la promesse d’avantages tierces interfèrerait avec la compétence strictement scientifique, au nom de laquelle on les a nommés comme évaluateurs ou comme experts, et influencerait leurs avis. De telles situations relèvent de ce que l’on a coutume d’appeler des conflits d’intérêts : ce terme signifie que des motivations ou intérêts concurrents, en l’occurrence pour le scientifique, le triomphe de la vérité d’un côté, une rétribution pour lui ou des personnes qui lui sont proches de l’autre, laissent soupçonner une forme de déloyauté. Soulignons que la révélation de tels conflits n’atteste à proprement parler d’aucune prévarication, délit ou manquement ; cela ne prouve rien ; cela suscite simplement un soupçon au prétexte qu’on ne saurait servir loyalement deux maîtres à la fois. Bref, il y a conflit d’intérêts lorsque des intérêts matériels, personnels ou émotionnels contrebalancent le désintéressement de principe du scientifique. Ainsi en va-t-il lorsque l’on demande à un chercheur d’évaluer une personne qu’il connaît pour avoir des relations privées avec elle, par exemple s’il s’agit d’une personne de sa famille, ou des relations professionnelles, s’il a déjà travaillé avec dans un passé récent. De même, lorsqu’un expert reçoit, soit à titre personnel, soit à celui de son équipe de recherche, des financements d’une société privée pour un travail passé ou présent, on le suspecte d’intéressement, au sens propre. Précisons qu’un conflit d’intérêts suppose l’existence d’une interférence entre des intérêts opposés. Il s’ensuit qu’un scientifique qui s’exprimerait dans les colonnes d’un journal ou dans les médias audiovisuels en se présentant comme salarié d’un organisme de recherche ou d’une université ne serait pas en conflit d’intérêt en faisant état de son statut. En revanche, s’il recevait d’autres subsides de la part d’autres institutions ou acteurs privés, s’il n’en faisait pas état et si cela avait un rapport avec ses propos, cela serait susceptible de relever du conflit d’intérêts.
Quoi qu’il en soit des biais dans l’évaluation ou dans l’expertise qui résultent des conflits d’intérêts, de telles situations doivent à tout prix être proscrites, afin d’établir la confiance dans la parole des scientifiques. Or, les relations personnelles susceptibles d’interférer dans une évaluation se révèlent d’autant plus courantes que le nombre de scientifiques compétents sur un champ étroit du savoir, et donc susceptibles de participer à l’évaluation d’une personne ou d’un projet, est faible.
De plus, depuis plusieurs décennies, les autorités politiques incitent, par différents dispositifs administratifs, les chercheurs à entretenir des relations avec le milieu socio-économique.
De ce fait, si l’on y prend garde, les conflits d’intérêts d’un expert avec l’industrie et les sociétés privées risquent d’être de plus en plus courants. Il faut donc tout mettre en œuvre pour éviter de se retrouver dans de telles situations. Une solution préconisée dans le rapport du Comité d’éthique du CNRS (COMETS)5 consacré à ce sujet porte sur la distinction entre les conflits d’intérêts et les liens d’intérêts : ces derniers interviennent « lorsqu’une personne physique ou morale tire un intérêt direct ou indirect, tangible ou intangible – respectivement un désavantage – dans sa relation avec une personne physique ou morale ». Les conflits d’intérêts naissent de situations dans lesquelles surviennent des liens d’intérêts antagonistes. Pour les prévenir, il convient donc de déclarer les liens d’intérêts, puis d’évaluer leur compatibilité avec une charge d’expertise ou d’évaluation. C’est ce que le COMETS propose dans le rapport susmentionné. Toutefois, cela exige des institutions de recherche qu’elles recueillent les liens d’intérêts, puis qu’elles les gèrent avec clarté et transparence tout en respectant l’intimité de la vie privée.
Expertise en situation de crise
Il arrive aussi que, sans entrer dans des conflits d’intérêts qui biaisent leurs jugements, des scientifiques se trouvent invités, par des politiques, à répondre dans l’urgence à des questions en vue de prendre une décision. Dans ce contexte, même s’ils essaient de s’exprimer avec sincérité, ils n’y parviennent pas toujours. Le défi tient autant à la forte contrainte temporelle qu’à l’absence de réponse simple. À cela s’ajoute la difficulté de compréhension, aussi bien par le grand public que par les responsables politiques, lorsque la réponse s’exprime en termes de probabilités d’occurrence. Si les scientifiques se plient à la demande pressante qu’on leur adresse par une formule lapidaire et claire, ils biaisent leur expertise ; sinon, on interprètera mal leurs déclarations qui demeureront sibyllines pour la plupart. Dans tous les cas, on les tiendra pour responsables en cas d’accidents.
À titre d’illustration, souvenons-nous du tremblement de terre de L’Aquila survenu le 6 avril 2009 et au cours duquel 308 personnes trouvèrent la mort. Six ans plus tard, en 20126, la justice italienne incriminait les sept experts sollicités au moment du séisme : ceux-ci se trouvèrent condamnés à six ans de prison pour « homicide par imprudence ». Même si cette décision fut ensuite annulée en 20147, le procès et la sanction initiale soulignent le risque que prennent les scientifiques lorsqu’ils émettent une expertise exprimée en termes probabilistes sur un risque naturel. Rappelons les faits : suite à une série de petits séismes, sans conséquences graves, un groupe de spécialistes avait été réuni, le 31 mars 2009, pour faire le point sur la situation. Sur la foi d’une déclaration rassurante faite par un représentant de la protection civile à l’issue de leur réunion, les habitants demeurèrent chez eux et subirent les effets désastreux du séisme. On reprocha ensuite aux experts d’avoir minimisé le risque sismique. Pourtant, tous les documents mis à disposition du public par la communauté scientifique italienne faisaient état du risque sismique important de cette région.
Dans ce cas de figure, comme dans bien d’autres, les scientifiques n’ont pas été en mesure de prédire ce qui s’est passé, car leur expertise n’était pas assez précise pour indiquer avec certitude ce qui allait advenir. En d’autres termes, la réalité a mis en défaut, au moins partiellement, leurs anticipations. Pour autant, cela ne signifie pas qu’ils aient menti ou qu’ils aient sciemment biaisé leur propos pour complaire aux personnalités politiques qui les interrogeaient ; cela ne veut pas non plus dire que leur réponse était fausse, loin de là, car formulée en termes probabilistes, elle ne pouvait conduire à une certitude absolue.
De façon plus générale, cela amène à se pencher sur le statut de l’expertise en situation de crise lorsque les enjeux et les risques demeurent incertains8.
Dans ces situations, on n’est pas en mesure de parler de mensonge, même si la réalité dément les prédictions, car la validité de la proposition scientifique ne s’entend que sur un très grand nombre d’occurrences, et jamais sur une seule, comme lors d’un lancer de dés. Il convient donc de donner, dans chaque situation, à la parole scientifique son statut épistémique authentique, en particulier lorsqu’elle porte sur l’existence de risques probables.
Complaisance avec le politique et mensonge par omission
Une catégorie de mensonge, bien différente de celles qui précèdent, advient dans certaines situations où les scientifiques confrontés aux politiques font preuve de complaisance, voire d’un silence complice. Sans relever d’un mensonge explicite, cela s’apparente plutôt à un mensonge par omission. Sans doute est-il difficile de juger une telle attitude au plan moral, d’autant plus qu’elle engage souvent toute une communauté scientifique. Néanmoins, cela demande tout de même à être mentionné ici, dans le cadre de la section sur la science et le mensonge dans le secteur des technosciences, car, comme nous allons le voir, les scientifiques y font entorse à leur devoir inconditionnel de vérité et cela porte spécifiquement sur la technoscience.
Pour illustrer de telles situations, je rappellerai un épisode du dernier quart du XXe siècle qui m’avait laissé perplexe à l’époque où j’étais un très jeune étudiant en physique : il s’agit de l’Initiative de défense stratégique (IDS), dite aussi plus communément la guerre des étoiles, lancée en 1983 par le président des États-Unis d’Amérique de l’époque, Ronald Reagan qui souhaitait mobiliser la communauté des physiciens afin de réaliser, avec des lasers de haute puissance, des armes dites à énergie cinétique et à énergie dirigée qui auraient constitué un bouclier anti-missiles global capable d’intercepter tous les missiles, en particulier les missiles nucléaires, et, par là, de protéger les États-Unis et leurs alliés d’une attaque de l’Union Soviétique considérée alors comme l’ « empire du mal ». Or, ce projet m’apparaissait à l’époque totalement irréaliste. Il n’est d’ailleurs jamais parvenu à son terme et fut abandonné dix ans plus tard par le président Bill Clinton. Pour autant, la communauté des scientifiques, en particulier des scientifiques américains, n’a jamais dénoncé ce projet qui promettait de mobiliser un budget très considérable, pour l’époque, de 26 milliards de dollars sur dix ans.
Quoiqu’il n’ait jamais été mené à son terme, ce programme a conduit l’Union Soviétique à se lancer dans une course frénétique aux armements qui lui a été fatale du fait du délabrement de son économie et de son appareil industriel. Deux ans plus tard, en 1985, Mikhaïl Gorbatchev parvenait au pouvoir puis, moins de six ans plus tard, en 1989, « le rideau de fer » s’effondrait. Au plan politique, l’IDS fut donc indubitablement couronnée de succès, et ce d’autant plus qu’elle advenait après un affaiblissement des États-Unis sur la scène internationale consécutif à la fin de la guerre du Vietnam en 1975, puis à la révolution iranienne, à l’occupation de l’ambassade des États-Unis à Téhéran et au début de l’invasion de l’Afghanistan par l’Union Soviétique en 1979. Cependant, les scientifiques n’ont pas dénoncé le caractère irréaliste du projet. Cette absence de réaction relevait indubitablement d’une forme de mensonge par omission dont tous bénéficiaient collectivement du fait de l’accroissement important des budgets alloués à la recherche. Cela permit à de nombreuses équipes américaines de subsister et de prospérer. Ce mensonge eut donc des effets positifs pour la recherche et, par conséquent, pour la vérité, puisque la recherche permet de s’en approcher. Pour autant, un tel mensonge est-il moralement condamnable ? Nous laisserons cette question ouverte.
Mensonge par naïveté
La dernière figure du mensonge dans le champ de la technoscience est en quelque sorte symétrique de la précédente, voire même des deux précédentes, en cela que là où le politique conduisait le scientifique à mentir, c’est désormais le scientifique qui, par la naïveté de ses réactions, induit le politique en erreur.
À titre d’illustration de tels mensonges, citons les lettres ouvertes9 signées par des célébrités du monde contemporain comme l’astrophysicien Stephen Hawking, le récipiendaire du prix Nobel de physique Frank Wilczek, l’homme d’affaire Elon Musk, le linguiste Noam Chomsky, l’informaticien Stuart Russell et bien d’autres qui affirment, qu’après la poudre à canon et l’arme nucléaire, les systèmes d’armes létales autonomes constitueront inéluctablement une troisième révolution dans l’art de la guerre dont les effets seront encore plus dévastateurs pour l’Homme. Ils posent alors dans la posture de pacifistes généreux en promouvant un moratoire sur ces systèmes d’armes. Or, si les systèmes d’armes intégrant de l’intelligence artificielle que l’on conçoit maintenant peuvent éventuellement être automatiques, encore que ce ne soit pas toujours le cas, ils ne sont en rien autonomes au sens fort du terme, en cela qu’ils ne mettent aucunement en cause les ordres donnés, ce qui ne serait ni techniquement possible aujourd’hui, ni souhaitable d’un point de vue opérationnel. On est donc en droit de se demander si ces armes nouvelles, qui verront bientôt le jour, seront vraiment autonomes, autrement dit, décideront elles-mêmes de leur cible, ou si elles ne seront qu’automatiques, en cela qu’il n’y a plus d’intervention humaine entre la prise d’information, le déclenchement du tir et l’impact. La question pourrait apparaître un peu byzantine, si ne se cachaient pas derrière des enjeux majeurs directement liés aux demandes de moratoire évoquées ici. En effet, l’argument principal des tenants d’un tel moratoire tient au caractère radicalement neuf de ces armes qui constitueraient, selon eux, une troisième révolution dans l’art de la guerre. Si tel n’est pas le cas, on ne voit pas pourquoi nous devrions nous soucier plus de ces armes que des systèmes d’armes plus conventionnels, même si les progrès de l’intelligence artificielle les rendent plus efficaces.
Ce mensonge a conduit le Parlement européen, sur la fois des lettres ouvertes susmentionnées, à condamner, en septembre 201810, puis à voter en février 2019 une résolution recommandant à la Commission européenne de ne pas financer des projets qui viseraient à intégrer des techniques d’intelligence artificielle dans les systèmes d’armes11, ce qui reviendrait, si cette résolution devenait effective, à interdire le financement d’une industrie européenne de défense, et donc à laisser l’Europe désarmée face au reste du monde. Cela aurait, très certainement, un effet désastreux sur l’équilibre des puissances.
*
* *
En résumé, nous avons dégagé ici cinq catégories de mensonges des scientifiques dans ce qui relève de la technoscience : le mensonge intentionnel caractérisé par la fraude, le mensonge putatif qui relève de la suspicion de mensonge, le mensonge par mécompréhension qui ne relève pas de la volonté de tromper, mais de la difficulté à communiquer clairement, le mensonge par omission ou complaisance et enfin le mensonge par naïveté. De prime abord, ce dernier semblerait le plus excusable, en ce qu’il part de la volonté des scientifiques de reconnaître leur responsabilité. Malheureusement, tout bien considéré, c’est peut-être celui dont les effets sont les plus pernicieux…
Pour conclure cet article sur le mensonge dans les technosciences, et surtout sa dernière partie, reprenons le propos de Raymond Aron dans sa préface à l’ouvrage de Max Weber Le savant et le politique que nous avons citée dans l’introduction. Outre l’aspiration inconditionnelle du scientifique à la vérité que Raymond Aron y mentionne et que nous avons soulignée plus haut, il évoque aussi le sentiment de responsabilité que ressentent ceux dont on exploite les travaux pour fabriquer des armes de guerre. Un passage fait état des limites de l’engagement du scientifique dans l’espace public lorsqu’il tire autorité de ses compétences scientifiques pour se prononcer naïvement sur des sujets politiques et interférer avec ceux dont c’est la charge. Ce qui était vrai à l’époque, l’est toujours aujourd’hui. Terminons en le mentionnant :
« Le savant, individuellement, ne saurait guère prendre de précautions contre l’exploitation de ses travaux par l’industrie de guerre. Collectivement, s’il se dérobe au service de l’État, il favorise d’autres États, ceux-là mêmes qui réduisent le plus les libertés des individus. Les associations de savants, dès qu’elles discutent de la paix ou de la guerre, sont des associations politiques et non scientifiques. Leurs appels seraient plus convaincants s’ils ne manifestaient souvent, en matière de diplomatie, une naïveté égale à l’autorité qu’on attribue, de confiance, à leurs auteurs en fait de physique nucléaire. »
- https://urlz.fr/auE6 ↩
- Frédéric Sgard et Stefan Michalowski, « Intégrité scientifique : vers l’élaboration de politiques cohérentes », Sciences, 2007-3, 3e trimestre 2007. ↩
- Anne Fagot-Largeault, « Petites et grandes fraudes scientifiques. Le poids de la compétition », in G. Fussman (dir.), La mondialisation de la recherche. Compétition, coopérations, restructurations, Paris, Collège de France, 2011, tiré de : [http://books.openedition.org/cdf/1620 ↩
- OSTP, Federal Policy on Research Misconduct. ↩
- Philippe Askenazy, Didier Gourier, Michèle Leduc, Lucienne Letellier, Jean-Pierre Poussin, Jean-Gabriel Ganascia, avis 2019-39 du COMETS (Comité d’éthique du CNRS) – Des liens d’intérêts aux conflits d’intérêts dans la recherche publique, 2019, https://hal.archives-ouvertes.fr/COMETS/hal-02138885v1 ↩
- https://www.lemonde.fr/planete/article/ 2012/10/23/des-scientifiques-denoncent-un-precedent-dangereux-a-l-aquila_1779733_3244.html ↩
- Voir https://www.pseudo-sciences.org/Proces-de-l-Aquila-en-appel-acquittement-des-scientifiques#nb1 et https://processoaquila.wordpress.com ↩
- On pourra lire, avec profit, l’avis 2013-27 du COMETS intitulé « Risques naturels, expertise et situation de crise » cf. https://hal.archives-ouvertes.fr/COMETS/hal-02139057v1 ↩
- Voir la lettre ouverte des chercheurs parue en 2015 https://futureoflife.org/open-letter-autonomous-weapons/ et la lettre ouverte des industriels de la robotique publiée en 2017 https://futureoflife.org/2017/08/20/leaders-top-robotics -ai-companies-call-ban-killer-robots/ ↩
- http://www.europarl.europa.eu/sides/getDoc.do?type=TA&language=EN&reference= P8-TA-2018-0341 ↩
- Voir http://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html, en particulier la clause 27. ↩