La mesure de la science

« La science va sans cesse se raturant elle-même. Ratures fécondes » écrit Victor Hugo dans le chapitre L’Art et la Science de son livre William Shakespeare. C’était en 1864 ; un siècle et demi plus tard nous arrivons à un point où il y a trop de ratures, la science croule sous ses ratures. Comment discriminer le juste du faux, l’utile de l’inutile ?

Les conséquences d’une découverte ne sont pas toujours immédiatement prévisibles, le temps est l’élément indispensable pour faire émerger le vrai, le beau, ou l’utile pour l’homme. Aujourd’hui, la multiplicité de petites découvertes qui se résument souvent à des observations, ou à des constatations de l’existant, la prolifération d’inventions de toutes sortes n’ayant qu’un lien ténu avec la science, l’ensemble associé à l’immédiateté qui caractérise notre époque, ne laisse pas au temps le soin de laver les ratures. Discerner les découvertes qui resteront sans lendemain, de celles qui au contraire, aujourd’hui inaperçues, s’avèreront riches de prolongements utiles nécessitent du temps.

L’histoire du laser est la démonstration du bon usage du temps long. Lors de sa découverte, l’effet laser était jugé sans grande portée. Son apport a grandi avec le temps, il est devenu progressivement utile à la fois pour la construction du savoir scientifique et pour son impact technologique ; il est de nos jours l’un des piliers de la technologie. Son histoire mérite d’être enseignée.

On connaissait, au début du XXe siècle, l’absorption et l’émission spontanée de la lumière par une assemblée d’atomes identiques en équilibre thermique. Les électrons des atomes transitent de leur niveau d’énergie fondamental vers un état excité pour l’absorption, dans le sens inverse pour l’émission. Concernant l’émission, chaque atome émettant indépendamment de son voisin, la lumière qui émane de l’assemblée d’atomes éclaire dans toutes les directions. Dans un article publié en 1917, Einstein exprime l’idée que l’émission d’un atome peut stimuler celle de son voisin, lequel émet un photon dans la même direction que la sienne. Pour que le processus soit visible, il est nécessaire de positionner un nombre d’atomes dans un état excité, supérieur en nombre à celui de l’état fondamental. Ainsi, par effet domino, chaque atome stimulant son voisin, le retour à l’équilibre de l’ensemble, induit de la lumière cohérente unidirectionnelle. L’idée d’Einstein est vraisemblable mais impossible à mettre en pratique en ce début du XXe siècle. Elle sombre dans un sommeil profond jusqu’en 1950, quand Alfred Kastler découvre le processus de pompage optique qui permet de réaliser cette inversion de population. Forts de cette découverte, Nikolaï Bassov et Alexandre Prokhorov en URSS, Charles Townes aux USA, renouent avec l’idée d’Einstein et obtiennent en 1954 la première observation d’un faisceau cohérent de microondes : le MASER. La publication est timidement acceptée, l’évaluation par les pairs montre que la communauté scientifique n’est pas très convaincue : à quoi peut servir cette lumière directionnelle ?

Charles Townes cherche alors comment obtenir le même effet avec de la lumière visible : le LASER. Il en discute d’une part avec Gordon Gould, doctorant à Colombia, d’autre part avec Arthur Schawlow, son collaborateur et beau-frère. C’est indépendamment qu’ils trouvent la solution. Gordon Gould en novembre 1957 et Arthur Schawlow au début de 1958. Gould réalise l’importance de sa découverte et de son potentiel technologique. Il la note dans son cahier de laboratoire qu’il confie à un notaire, pour le dépôt d’un brevet. S’installe alors une concurrence féroce entre l’industriel qui fabrique l’appareil Laser et Gordon Gould, l’inventeur du concept. Trente ans plus tard, après de nombreux procès, Gould perçoit ses droits et devient extrêmement riche. Arthur Schawlow et Charles Townes préfèrent la reconnaissance scientifique : l’effet Laser pour que progresse la science. Ils publient leur article en décembre 1958, mais à nouveau la publication est considérée comme présentant peu d’intérêt. Certaines revues refusent cette lumière directive, visible de surcroît, mais qui n’éclaire rien. Vingt-trois ans plus tard, Schawlow et Townes obtiendront néanmoins le prix Nobel.

Après la réalisation du premier Laser à rubis en 1960, les applications se succèdent : 1960, première communication téléphonique par laser ; 1961, premier recollement de rétine par laser ; 1963, premières soudure laser (laser CO2) ; 1969, mesure de la distance Terre-Lune par laser ; 1974, lecteurs de codes-barres laser ; 1982, premiers disques optiques ; fin des années 1990 développement des micro-ordinateurs ; 2015, fusion par confinement inertiel par laser : dix millions de degrés. Avec le temps, cette recherche considérée comme inutile s’est avérée capitale.

Aujourd’hui on n’attend plus le temps nécessaire pour que décante l’utilité d’une découverte scientifique, et on note même l’inverse ; bon nombre de découvertes, soi-disant révolutionnaires se révèlent très rapidement sans intérêt.

Avec un goût excessif pour la nouveauté, l’homme se complaît dans les technologies de l’inutile.

Celles-ci fleurissent et encombrent nos vies. On peut sourire en citant le téléphone portable flexible qui épouse la forme de la fesse, permettant aisément son positionnement dans la poche arrière du pantalon, la valise autotractée et télécommandée qui suit le propriétaire qui n’a plus à la porter… On assiste depuis 1991, à la remise du prix Ignobel, contraction de l’adjectif « ignoble » avec le terme « prix Nobel » attirant l’attention sur des recherches qui paraissent absurdes mais qui peuvent apporter des savoirs utiles. Ceci peut être louable et drôle, cependant lorsque les publications inutiles obstruent le savoir, lorsque l’inutile devient plus important que l’utile, le système s’éteint, la cendre recouvre ce qui aurait pu devenir utile.

Dans son livre Little science big science and beyond, originellement publié en 1963 et réédité aux éditions Columbia University Press en 1986, Derek de Solla Price, historien des sciences et père de la bibliométrie, fait une analyse pertinente de la croissance du savoir scientifique. Il parle de la « taille de la science » dont il mesure la progression au cours du temps en pointant l’évolution du nombre de scientifiques, du nombre de publications, du nombre de revues dans le monde… Il montre que ces indicateurs obéissent tous à la même loi exponentielle, doublant en moyenne tous les dix à quinze ans. Le propre d’une croissance exponentielle réside dans le taux de croissance proportionnel à la taille de la chose qui croît, plus celle-ci est grosse plus sa croissance est rapide. Derek Price précise que depuis les premières publications des deux revues scientifiques créées en 1665 : Le Journal des sçavans à Paris et le Philosophical Transactions of the Royal Society à Londres, le nombre de publications suit sa course exponentielle. C’est donc continûment que la « taille de la science » est passée de little à big. Derek Price ajoute que « dans le monde réel, les choses s’arrêtent de grandir avant d’atteindre l’infini. La croissance finit par atteindre une certaine limite, à laquelle le processus doit se relâcher et s’arrêter avant d’atteindre l’absurdité… La nouvelle ère montre tous les syndromes familiers de la saturation. Je dois ajouter que ceci est un constat d’espoir plutôt que de désespoir ».

Depuis, la « taille de la science » au sens défini par Price continue sa croissance galopante. Le Rapport de l’Unesco sur la science 2010, estime à 986 000 le nombre de publications en 2008, alors qu’il n’était que de 466 000 en 1988, selon la National Science Foundation. Aujourd’hui, avec un taux annuel de publications compris entre 1,6 et 2 millions, soit une publication toutes les quinze à vingt secondes, on atteint l’absurdité. Comment évaluer une telle accumulation compulsive de résultats ? Quelle est la signification du mot science aujourd’hui ?

Dans son article « Pourquoi le système actuel de publication est absurde ? », repris par Captain Economics en février 2019, Michaël Bon précise que « La force de la science vient de l’exigence de son processus de vérification ». La valeur d’une publication scientifique tient à la rigueur de son acceptation. Aujourd’hui la profusion d’articles rend l’expertise aléatoire, il n’est plus possible d’évaluer correctement l’ensemble des publications. Les deux ou trois examinateurs anonymes choisis par l’éditeur pour juger de la qualité d’un article sont submergés. À l’exception de quelques domaines scientifiques à taille humaine, l’évaluation par les pairs a atteint sa limite.

Le premier volume du Science Citation Index, édité en 1963, avait pour objectif de relier les publications entre elles. La croissance exponentielle des articles a rendu cet objectif caduc, l’indice de citations est devenu un outil pour l’évaluation du chercheur. Il est complété par l’indice h suggéré par Hirsch en 2005, qui a pour but de quantifier l’impact du scientifique. Résumer l’activité d’un chercheur à un seul nombre est plutôt hasardeux. Quantifier la qualité c’est oublier la différence de sens entre les deux mots qualité et quantité.

Plutôt que de privilégier les publications mettant en lumière la synthèse d’un ensemble de données, indispensables à la compréhension d’un mécanisme, les résultats de la recherche sont scindés en de multiples fragments afin d’accumuler un grand nombre de publications qui s’auto-citent.

La course à l’impact est devenue perverse. La qualité s’efface devant la quantité. Les « papiers » les plus cités sont les plus récents, la littérature scientifique devient celle de l’éphémère. Le nombre de publications n’est plus pertinent pour mesurer la taille de la science.

La croissance exponentielle d’un objet homogène n’est possible que lorsque son environnement est apte à le nourrir indéfiniment. Dans un environnement contraint, soit l’objet implose ou s’éparpille dans l’hétérogénéité, soit sa croissance ralentit puis sature. De nos jours, non seulement la littérature dite scientifique s’envole, mais le nombre de chercheurs ne fait que croître. L’institut de statistiques de l’Unesco indiquait 7,8 millions équivalent temps plein de scientifiques en 2013, qui avec la croissance exponentielle en cours doit dépasser dix millions en 2020.

La recherche a changé de visage, elle a mué d’une recherche d’élites, réalisée par un petit nombre de savants qui se connaissaient tous entre eux, en une recherche de masse.

Sa gestion doit s’adapter à cette transformation. 

Certes, il reste les grandes questions scientifiques, les questions concernant les mécanismes, comme celui de l’expansion de l’Univers qui nous préoccupe depuis un siècle. C’est en analysant la lumière émise par les galaxies et en particulier le décalage vers le rouge qu’Edwin Hubble mesure les distances, ainsi que les vitesses relatives de vingt-quatre galaxies par rapport au soleil. En 1929, il découvre que, plus la galaxie est éloignée, plus sa vitesse d’éloignement est importante. En première approximation, la vitesse de la galaxie est proportionnelle à sa distance au soleil, le coefficient de proportionnalité est appelé constante de Hubble. L’inverse de la constante de Hubble, qui est homogène à un temps, donne l’ordre de grandeur de l’âge de l’Univers. Depuis, les chercheurs s’efforcent successivement et sans relâche de mesurer la constante de Hubble le plus précisément possible. Les progrès des technologies instrumentales sont tels qu’on observe même l’accélération de l’expansion. Diverses méthodes expérimentales se sont développées, mettant en jeu des modèles théoriques susceptibles d’expliquer cette expansion. La différence significative entre les différents types de mesures est aujourd’hui un des plus gros problèmes de la cosmologie. Les « Ratures fécondes » de Victor Hugo font avancer notre compréhension. Les inventions technologiques font progresser les mesures, les résultats sont de plus en plus précis, mais la démarche scientifique reste identique : discussion, mesures, comparaison avec les modèles. Cette science n’intéresse cependant que très peu de monde, elle est considérée comme anecdotique par la majorité de l’humanité, la pression médiatique sur les chercheurs est faible, ces derniers prennent en main leur destin ; le temps est leur allié.

À l’autre extrémité du spectre de la recherche scientifique, les questions sont souvent imprécises car elles dépendent de nombreux paramètres intriqués. Les réponses ne sont pas toujours claires, les données foisonnent, les publications pullulent. Certains articles analysent mal les observations qu’ils relatent, ils sont truffés d’erreurs ou d’ajouts inventés. Avec le temps, les résultats s’amoncellent et ne sont pas triés. Mais peu importe puisque bon nombre de publications ne sont pas lues. Il s’avère même parfois que des coauteurs ne lisent pas ce qu’ils cosignent !

Dans la course à la publication, le temps de la réflexion n’a plus sa place pour faire émerger l’utile de l’inutile, le juste du faux.

Les éditeurs s’interrogent : l’autorisation de publier établie par d’obscurs experts n’est plus viable. Un nouveau mode de validation des résultats de la recherche se doit d’être mis en place, telle une méthode plus collective, à l’image de Wikipédia, où le savoir encyclopédique, aujourd’hui accessible sur le net, se construit par validation itérative. La science ouverte s’installe, elle va bouleverser l’évaluation.

Ces recherches côtoient les sciences participatives, parfois appelées sciences citoyennes ou sciences collaboratives. Elles sont « des formes de production de connaissances scientifiques auxquelles des acteurs non-scientifiques-professionnels – qu’il s’agisse d’individus ou de groupes – participent de façon active et délibérée » exprime François Houllier, dans son rapport Sciences Participatives en France. États des lieux, bonnes pratiques et recommandations

Ces sciences participatives existent depuis toujours. L’exemple des astronomes est révélateur. Les origines de l’astronomie remontent au-delà de l’Antiquité. Avec plus de cinq mille ans d’histoire, l’astronomie est l’une des rares sciences où les amateurs jouent encore un rôle actif. Elle est pratiquée à titre de loisir par un large public d’astronomes amateurs qui apporte son tribut à la connaissance. Un autre exemple de sciences participatives concerne la biodiversité, cette diversité fascinante des formes de vie sur Terre, où chaque espèce développe des comportements qui lui sont propres et que l’homme observe et consigne avec soin. Concernant les oiseaux migrateurs, les premières données officielles que des bénévoles ont envoyées au gouvernement des États-Unis datent des années 1880. C’était déjà la recherche participative qui informait sur les routes migratoires des oiseaux.

Qu’en est-il des sciences citoyennes à l’âge de l’Internet ? Le Muséum national d’Histoire naturelle, fondé en 1793, où est conservée une des plus grandes collections de spécimens de botanique d’abord, puis d’animaux, de minéraux, ensuite, « propose à tous les citoyens de contribuer à l’amélioration des connaissances sur la biodiversité ». À l’Université internationale de la mer, Mike Riddell, ancien président, a mis en place des boitiers pour les plaisanciers. Ainsi connectés à l’université, ils repèrent la position des méduses, des plastiques… qu’ils transfèrent en cliquant sur le chiffre approprié. La science participative résulte aussi de donneurs d’alertes qui repèrent les épidémies et leur propagation, d’associations de malades qui relèvent les effets secondaires des médicaments…

Cette recherche participative, citoyenne, est d’autant plus efficace qu’elle s’établit conjointement avec les scientifiques, lorsque ceux-ci acceptent de sortir de leur tour d’ivoire.

Elle présente un intérêt majeur ; celui de mieux faire appréhender la science par la société. La science pénètre ainsi l’intérieur de la société. Elle appartient à tous.

Les recherches participatives ne concer­nent pas uniquement les sciences de l’observation, elles touchent aussi les sciences informatiques où recherches scientifiques et technologiques non seulement se côtoient mais sont fortement imbriquées. Des concours informatiques, organisés de toutes parts et en particulier par les
GAFAMs, apportent alors leur contribution à la construction du savoir. Ouverts aux informaticiens du monde entier, ouverts à des dizaines de milliers d’étudiants qui créent chaque année des applications, des jeux, des dispositifs pour l’intelligence artificielle, ces concours ne sont pas mis en place de manière désintéressée. Ils permettent également de repérer les meilleurs ingénieurs à moindre coût, et constituent un gain financier pour l’économie des entreprises.

DIY (Do It Yourself), dont la traduction est « Faites-le vous-même », est une autre forme de recherche hors les murs des laboratoires. Nécessitant peu de moyens, elle s’est structurée en associations dès le début du XXe siècle aux États-Unis. Avec le développement du numérique, elle est en forte progression. Sans danger pour les créations artistiques, elle pose des questions éthiques graves dans le domaine du bricolage du vivant pour lesquels des kits de modification génétique sont vendus clandestinement. Depuis la deuxième moitié du XXe siècle, la génétique progresse à grands pas. Elle est beaucoup plus complexe que ce qu’imaginaient les scientifiques lors de la découverte de l’ADN ; les familles multigéniques dévoilent une combinatoire qui n’a pas fini de surprendre. Il est alors crucial d’identifier des mesures permettant d’éviter les écarts aux règles éthiques, et de promouvoir le co-développement de la recherche citoyenne avec celle qui est menée en laboratoire.

La conception de la science qui s’est établie au fil des siècles, avec sa succession de découvertes expliquées par un savoir validé par les savants et consignées ensuite dans des livres, est restée inchangée jusqu’au milieu du XXe siècle. Depuis les années 1990, elle a changé de visage, son pluralisme s’est accentué ; elle est devenue hétérogène, et il est vain de croire qu’elle retrouvera son homogénéité en imposant l’interdisciplinarité. L’amoncellement de publications hétéroclites, mises en vrac, confère à l’ensemble une image d’entrepôt mal rangé et ouvre grande la porte au relativisme. Les faux experts s’en saisissent pour laisser s’épanouir une pseudoscience qui ne pourra s’effacer qu’avec le temps. Seuls les travaux de recherche qui nécessitent pour progresser des outils technologiques sophistiqués sont aujourd’hui protégés de voir leurs résultats figurer dans la science en vrac. Grâce au coût des technologies qu’ils utilisent, les résultats de ces travaux sont validés avec soin. En revanche, les travaux de recherche qui ne sollicitent pour se réaliser que des technologies simples, à la portée de tous, avancent en titubant par excursions empiriques. Le mot science est devenu polysémique, son périmètre n’est plus mesurable et ses conséquences encore moins. L’enjeu est d’éviter de sombrer dans la démesure qui nous entraînerait, soit dans la décadence, soit dans un virtuel éthéré. Pour reprendre une expression utilisée par les enfants qui jouent constamment entre réel et virtuel, la science se doit de rester dans la vraie vie.

Catherine Bréchignac
Secrétaire perpétuel honoraire de l’Académie des sciences

Ambassadrice déléguée à la science, la technologie et l’innovation