Une révolution invisible est en marche. Non, je ne vais pas parler de politique, rassurez-vous ! Les grandes révolutions technologiques ne s’annoncent jamais en fanfare. Elles naissent en silence, dans le secret des laboratoires, avant d’éclater au grand jour et de redessiner le paysage du monde. L’informatique a connu sa première prophétie en 1965, sous la plume de Gordon Moore, cofondateur d’Intel. Sa loi, gravée dans l’histoire du silicium, prédisait que le nombre de transistors sur une puce doublerait tous les deux ans, rendant les processeurs toujours plus puissants à coût constant.
Cette règle empirique a tenu plus d’un demi-siècle, dictant la cadence effrénée du progrès numérique. Aujourd’hui pourtant, une autre révolution silencieuse est en marche, une onde de choc qui traverse l’univers de l’intelligence artificielle. Elle ne concerne plus les conditions de possibilité d’une prochaine puissance brute, mais au contraire, l’effondrement soudain des besoins en matériel.
Là où l’IA réclamait hier des flottes entières de GPU pour fonctionner, elle ne semble désormais tenir qu’à un fil, un simple processeur capable de rivaliser avec les géants d’hier. Et si, demain, un modèle comme ChatGPT pouvait s’exécuter sur un unique ordinateur, sans la moindre dépendance aux grandes infrastructures ?
Vendredi soir, avant l’appel de l’apéro, la lecture de la dernière mouture de la newsletter superhuman.ai m’annonçait une forme de révolution quantique dans l’industrie de l’IA. Cette industrie, dont les besoins gigantesques en ressources naturelles, du fait de la somme pharamineuse de datacenters nécessaires à l’accomplissement de la prophétie d’une intelligence supérieure et autonome, qui encaisse de nombreuses critiques, souvent justifiées, semble ouvrir un nouvel échangeur aux autoroutes de l’intelligence : celui de la frugalité. Qui l’aurait cru ?
L’éclatement d’un dogme
Jusqu’ici, une vérité semblait inébranlable : plus un modèle d’intelligence artificielle est puissant, plus il exige de ressources matérielles. Un modèle comme GPT-3, lancé en 2020, nécessitait plus de 1 000 GPU pour fonctionner. GPT-4-turbo, arrivé trois ans plus tard, réduisait cette exigence à une centaine de GPU, mais sans remettre en cause le paradigme.
Et puis DeepSeek R1 a surgi, telle l’araignée dans la chanson du dessin animé diffusé dans les années 80, comme un éclair ouvrant une faille dans la logique dominante. Un modèle chinois, open-weight, aussi performant que GPT-4, mais fonctionnant avec seulement 32 GPU.
La claque fut brutale : en un instant, la certitude d’un monde dominé par l’obésité matérielle vacillait.
Soudain, la véritable secousse sismique est venue de la réplique. Google a annoncé Gemma 3, un modèle qui ne nécessiterait plus qu’un seul GPU pour atteindre des performances dignes des plus grands (cf. newsletter superhuman.ai, 14/03/2025). Vous avez bien lu, un seul. Une machine solitaire là où l’on attendait des milliers de cartes interconnectées.
C’est là que tout bascule. Si les tendances se confirmaient, ce ne serait plus une simple avancée technique, mais un renversement complet du modèle économique qui régit l’IA. Pour s’ancrer dans la réalité, parlons maintenant au présent !
Quand l’IA cesse de coûter une fortune
L’économie de l’IA repose sur un postulat fondamental : les modèles sont si gourmands en puissance qu’ils nécessitent des infrastructures massives, et donc des milliards d’investissements.
Aujourd’hui, OpenAI dépense environ 700 000 dollars par jour, soit près de 250 millions de dollars par an, uniquement pour faire tourner ChatGPT. Cette montagne de coûts justifie les alliances entre géants, les levées de fonds titanesques et l’entrée de l’IA dans un cercle restreint où seuls les titans du numérique ont les moyens de jouer.
Mais si un modèle comme Gemma 3 peut diviser par 50 ces besoins en GPU, alors le coût de l’IA s’effondre. Une entreprise qui dépensait 100 millions de dollars pour faire tourner son modèle pourrait, demain, fonctionner avec un budget de 2 millions.
Les conséquences sont vertigineuses. Les startups n’auront plus besoin de lever des milliards pour rivaliser avec OpenAI et Google. L’IA ne sera plus l’apanage du cloud : elle deviendra locale, embarquée dans des appareils du quotidien. Le marché, soutenu par le principe de la rareté artificielle de puissance, ce principe même qui offre aux entreprises de luxe un modèle marketing unique et des valorisations tout aussi rarissimes, pourrait s’effondrer sous son propre poids.
Une loi de Moore inversée toute verte : l’IA devient un bien de consommation écolo
Imaginons que ce phénomène suive une courbe que l’on pourrait appeler « la loi de Moore du GPU ». En effet, la puissance d’un modèle IA donné deviendrait disponible avec moitié moins de GPU tous les 12 à 18 mois. Ce que Moore avait observé pour les transistors s’appliquerait ici à la réduction des besoins en calcul, avec une rapidité encore plus déconcertante.
L’IA, naguère château fort imprenable, se métamorphoserait progressivement en une maison de verre ouverte à tous ; de verre si, de surcroit, la bâtisse s’avérait frugale donc porteuse d’espérance écologique.
Le spectre d’un crack : le boom avant l’effondrement ?
Toutefois, il existe une autre face de la médaille, plus sombre. Car si le besoin en puissance matérielle disparaît, c’est tout un marché qui vacille.
Souvenons-nous de la bulle Internet des années 2000 : les startups affichaient des valorisations démentielles sur la promesse d’un futur numérique triomphant. Et puis, du jour au lendemain, la raison s’est réveillée, l’illusion s’est dissipée : l’argent ne coulait plus, les promesses ne se concrétisaient pas, et l’écosystème s’est effondré, laissant derrière lui des entreprises ruinées et des rêves brisés. Fort heureusement, cela ne fut que l’application du principe schumpéterien de destruction créatrice et non un vague caprice entrepreneurial sans lendemain.
Le parallèle avec l’IA est troublant. Aujourd’hui, NVIDIA règne en maître sur le marché du GPU, avec une demande quasi illimitée. Si les besoins en cartes graphiques chutaient, sa valorisation pourrait s’effondrer.
Les startups qui ont levé des milliards pour louer des serveurs à prix d’or risqueraient de voir leur modèle économique s’évaporer.
Les hyperscalers comme Google, Amazon et Microsoft, qui monétisent leur puissance cloud, pourraient perdre une part substantielle de leur marché.
Et si le secteur de l’IA était lui aussi une bulle prête à éclater ?
Vers un futur décentralisé de l’IA ?
Restons schumpétériens un instant. Arguons que ce séisme économique pourrait ouvrir une nouvelle ère. À quoi ressemblerait cette nouvelle période si l’IA se libérait enfin des mains des techno-géants de l’acronymie (GAFAM, BATX, NATU…) ?
Avec des modèles optimisés et légers, les entreprises n’auront plus besoin de dépendre des GAFAM pour exécuter leurs IA. Elles pourraient s’intégrer dans nos appareils, de nos téléphones à nos voitures ; les chercheurs, les développeurs, les PME pourraient s’emparer de cette technologie débarrassée d’un problème simple d’intendance ; la barrière financière 🙂
Le centre de gravité de l’intelligence artificielle pourrait basculer vers un monde décentralisé, où chacun disposerait de son propre modèle, fonctionnant sur des machines locales, indépendamment des grandes plateformes.
La réponse sur un seul processeur.
Ian Fleming, le père de James Bond, avait l’habitude d’écrire : « une fois, c’est un hasard. Deux fois, c’est une coïncidence. Trois fois, c’est une action ennemie. » Le mouvement, ou plutôt l’ennemi du changement, est sans doute lancé. L’IA, autrefois colossale et inatteignable, pourrait bien se réduire à l’essentiel. Une puissance brute enfin maîtrisée, une intelligence à portée de main, une technologie qui échappe à ceux qui la croyaient sous leur contrôle.
Qui sortira gagnant de cette révolution ? Ceux qui ont construit des empires sur la rareté de l’IA, ou ceux qui sauront en faire un bien universel ?
Vous auriez deux heures à l’occasion d’une épreuve de dissertation ; la réponse, elle, ne tiendra peut-être qu’en un seul processeur !
Jacky ISABELLO
Fondateur du cabinet Parlez-moi d’impact