• Contact
  • Abonnez-vous
  • Contribuez
Panier / 0,00 €

Votre panier est vide.

Abonnez-vous à la newsletter
Revue Politique et Parlementaire
  • Se connecter
S'abonner
  • Politique
  • International
  • Economie
  • Société
  • Tech
  • Événements
    • La cité des débats
      • Faut-il avoir peur de l’avenir ?
      • Aimons-nous encore la liberté ?
      • Savoir, pouvoir et démocratie
      • S’engager au 21ème Siècle
      • Nouveaux mondes, nouvel Occident ?
    • Le printemps des technologies
      • Edition 2023
      • Edition 2024
      • Edition 2025
      • Edition 2026
Contribuez aux débats
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
  • Politique
  • International
  • Economie
  • Société
  • Tech
  • Événements
    • La cité des débats
      • Faut-il avoir peur de l’avenir ?
      • Aimons-nous encore la liberté ?
      • Savoir, pouvoir et démocratie
      • S’engager au 21ème Siècle
      • Nouveaux mondes, nouvel Occident ?
    • Le printemps des technologies
      • Edition 2023
      • Edition 2024
      • Edition 2025
      • Edition 2026
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
Aucun résultat
Voir tous les résultats
dans N°1116, Politique

IA et éducation

Virginie MartinMarcel SaucetParVirginie MartinetMarcel Saucet
17 mars 2026
IA et éducation
Interview

À l’occasion de la sortie de IA et éducation : quand les robots donneront cours (Éditions EMS), Virginie Martin et Marcel Saucet analysent la révolution que l’intelligence artificielle impose à l’école. Entre promesses d’accès élargi au savoir et risques de standardisation, ils interrogent le rôle futur des enseignants et les conditions d’un usage vraiment émancipateur.

 

Revue Politique et Parlementaire – Dans votre ouvrage, vous analysez les profonds bouleversements provoqués par l’arrivée de l’intelligence artificielle dans l’éducation. Quels sont, selon vous, les plus significatifs ? En quoi l’IA reconfigure-t-elle la manière d’apprendre, de transmettre et même de penser le savoir ?

Virginie Martin et Marcel Saucet – Parler d’intelligence artificielle dans l’éducation, c’est d’abord parler du retour du couple savoir/pouvoir – au sens le plus foucaldien du terme. L’IA ne se contente pas d’outiller l’apprentissage : elle reconfigure la souveraineté cognitive. Elle démocratise, certes – elle rend le savoir accessible, traduisible, partageable à une échelle inédite –, mais elle le fait sous condition : celle de standards techniques imposés par quelques architectures globales. Autrement dit, ceux qui fixent les normes du savoir détiennent désormais le pouvoir.

L’école, longtemps lieu d’émancipation, devient le théâtre d’un affrontement silencieux entre la logique publique de la transmission et la logique privée de la prescription algorithmique. Derrière le discours enchanté de la démocratisation se cache une politique de la standardisation : l’IA égalise les accès, mais uniformise les esprits.

Sur le plan cognitif, elle déplace le centre de gravité du savoir : on ne valorise plus la mémoire mais la capacité à questionner, formuler, vérifier. Le savoir devient processus, traçabilité, justification – non plus possession mais navigation. Cette mutation pourrait être féconde, si elle ne s’accompagnait pas d’une dépossession symbolique : penser à travers l’IA, c’est toujours déjà penser dans ses cadres.

Le défi est là : maintenir une pluralité d’intelligences et une conflictualité féconde du sens dans un monde qui tend à les aplanir. Si Foucault écrivait aujourd’hui, il dirait sans doute que le savoir algorithmique est devenu le nouvel opérateur du pouvoir, et que la tâche de l’école consiste à le rendre visible, discutable, et surtout désobéissant.

RPP – Fin 2024, en Inde, un robot doté d’une IA a donné un cours à de jeunes élèves. Comment imaginez-vous le rôle des professeurs demain ? Quelles compétences nouvelles devront-ils développer pour rester au cœur du processus éducatif ?

Virginie Martin et Marcel Saucet – Le professeur ne disparaît pas – certainement pas. Il va se reconfigurer. Il va cesser d’être un simple transmetteur pour redevenir un médiateur du sens, du lien, du commun et de la critique.

L’intelligence artificielle ne remplace pas l’humain ; elle le repositionne. Elle peut analyser, croiser, même pressentir des nuances – mais elle ne hiérarchise pas, elle n’ordonne pas le monde. Le professeur, lui, devra précisément hiérarchiser dans le flux, distinguer le pertinent de l’accessoire, le vrai du plausible, l’urgent de l’essentiel. Ce geste de discernement est un acte politique autant qu’intellectuel.

Sa mission sera aussi de maintenir vivante la dimension critique : apprendre à interroger le monde, pas simplement à l’utiliser.

L’école, à travers lui, demeure ce qu’elle doit rester : le dernier lieu du commun diversifié, celui où se rejoue l’universalisme des différences. Le professeur incarne cette promesse – celle d’un espace où l’on apprend à penser ensemble sans se ressembler.

En somme, dans un monde d’automatisations, le rôle du professeur devient paradoxalement plus crucial : il est celui qui remet de l’ordre dans la profusion, du sens dans la vitesse, et du commun dans la dispersion.

RPP – Vous étudiez, dans votre essai, les stratégies innovantes d’intégration de l’IA dans l’éducation aux Émirats arabes unis, aux États-Unis, à Singapour et en Finlande. Quelles leçons peut-on tirer de ces différentes approches ? Et pourquoi, selon vous, la France avance-t-elle avec davantage de prudence dans ce domaine ?

Virginie Martin et Marcel Saucet – Chaque pays révèle, à travers son rapport à l’intelligence artificielle, sa philosophie du savoir.

Aux Émirats arabes unis, l’IA est une vitrine de puissance : un instrument de soft power technologique. Aux États-Unis, elle devient une industrie éducative – efficace, rapide, mais profondément inégalitaire. À Singapour, elle est une ingénierie rationnelle du social. En Finlande, elle s’intègre avec une lenteur réfléchie, presque éthique, où la technologie reste au service du collectif.

La France, elle, avance autrement. Et ce n’est pas tant de la prudence que de la profondeur. Nous sommes un pays éminemment politique, où le savoir n’est pas seulement utile – il est porteur de sens, de culture, de débat. Nous sommes encore un pays où l’on espère que, dans dix ans, étudier Proust ou Balzac aura encore une valeur, où comprendre Descartes ou lire la poésie ne relève pas de la nostalgie mais de la formation de l’esprit.

Ailleurs, le savoir est souvent envisagé comme un capital d’efficacité. En France, il reste une expérience de la pensée. C’est peut-être notre lenteur, mais c’est aussi notre résistance : refuser que l’école devienne une fabrique de compétences quand elle doit rester un espace d’humanité.

La culture générale – dans tout ce qu’elle a de gratuit et de critique – demeure ici un acte politique. C’est pourquoi l’introduction de l’IA y est plus complexe : parce que, dans ces pays, on ne sépare pas encore le savoir du sens, ni la connaissance de la conscience.

RPP – Vous soulignez que si la gamification et l’edutainment rendent l’apprentissage plus ludique, dynamique et interactif, ils suscitent aussi des interrogations, notamment éthiques. Quels sont, d’après vous, les principaux enjeux et les risques liés à l’usage de ces outils dans l’éducation ?

Virginie Martin et Marcel Saucet – La gamification n’est pas qu’un gadget pédagogique : c’est une nouvelle grammaire du savoir. Elle réintroduit le jeu, la surprise, la dynamique de la réussite immédiate. Et pour certains élèves, ceux qui se sentent exclus du cadre scolaire classique, elle représente une porte d’entrée. Elle rend possible ce que la verticalité de l’enseignement, parfois, décourageait : le sentiment de compétence, la joie d’apprendre, la continuité dans l’effort.

Mais toute médaille a son revers. Derrière l’esthétique du jeu se loge une gouvernementalité douce – celle du plaisir comme mode de contrôle. On n’impose plus : on oriente par la dopamine. On ne contraint plus : on fidélise par le flux.

Byung-Chul Han a raison : nous vivons dans une société de la performance heureuse, où l’attention devient une marchandise et la fatigue, un défaut de design.

L’apprentissage, pourtant, ne se réduit pas à la captation du désir. Il suppose la résistance, l’ennui, la lenteur – ces vertus qu’aucune IA ne peut simuler.

Le danger n’est pas le jeu, mais l’oubli de ce qu’il cache : la standardisation des parcours, la disparition du silence, la dissolution du sens dans le divertissement.

La gamification peut donc être féconde – à condition qu’elle reste consciente d’elle-même, qu’elle fasse l’objet d’un enseignement du jeu, d’un apprentissage de la distance critique.

L’enjeu n’est pas de rendre le savoir ludique, mais de faire du jeu un espace réflexif, une manière d’éprouver la liberté intellectuelle autrement.

RPP – Vous notez que l’IA personnalise l’expérience d’apprentissage de manière similaire à la publicité ciblée. Quels risques cela fait-il peser sur l’intégrité du processus éducatif ? Comment éviter que la logique d’optimisation des données ne prenne le pas sur la mission d’émancipation intellectuelle de l’école ?

Virginie Martin et Marcel Saucet – La personnalisation par l’intelligence artificielle fascine : elle promet un apprentissage sur mesure, fluide, ajusté à chaque profil. En apparence, c’est le triomphe de l’attention à l’individu. Mais en réalité, c’est souvent la logique du marketing appliquée à la connaissance : la même mécanique qui, dans la publicité, cible nos désirs, s’invite dans la pédagogie pour cibler nos besoins cognitifs.

Cette individualisation absolue fait courir un risque paradoxal : celui de l’enfermement dans la pertinence. Apprendre selon ce que l’algorithme estime « bon pour nous », c’est parfois ne plus se confronter à l’imprévu, à l’altérité, à la surprise – ces dimensions pourtant essentielles de la pensée.

Là où l’école formait des esprits critiques capables de s’écarter, de se heurter au monde, l’IA tend à fabriquer des apprenants auto-optimisés, enfermés dans une bulle cognitive. C’est le passage, au fond, d’un idéal d’émancipation à un modèle de performance.

Pourtant, la personnalisation peut être un levier, à condition d’être pilotée par l’éthique du commun. L’IA peut aider à repérer les fragilités, à diversifier les approches, à ouvrir des portes nouvelles – mais elle ne doit jamais décider seule de ce qui vaut d’être appris.

L’enjeu politique, ici, est majeur :

• Qui écrit les algorithmes de la connaissance ?
• Qui décide du « profil cognitif » d’un élève ?

C’est là que l’école doit réaffirmer son rôle : ne pas céder le pouvoir de hiérarchiser le savoir à la machine. La mission éducative n’est pas d’optimiser les trajectoires, mais de préserver la possibilité du détour, du doute et de la désobéissance intellectuelle.

RPP – Vous insistez, dans votre essai, sur la nécessité de préparer les jeunes et les professionnels à exploiter l’IA de manière responsable et efficace. Vous proposez, pour cela, une boîte à outils de vingt règles à destination des comités d’universités et des conseils d’anciens élèves. Quelles sont les plus essentielles à vos yeux ?

Virginie Martin et Marcel Saucet – Ce que nous proposons, ce n’est pas un protocole, c’est une boussole. Parce que le risque, avec l’IA, c’est d’entrer dans l’ère des procédures sans pensée. L’université doit se doter d’outils, oui, mais d’abord de principes : c’est la condition pour ne pas être gouvernée par ce qu’elle crée.

D’abord, la primauté du sens sur la performance : il faut redire que la finalité de l’enseignement n’est pas l’efficacité, mais l’émancipation.

Ensuite, la transparence des modèles et des données : savoir sur quoi s’appuie un algorithme, comment il apprend, et surtout qui en est le propriétaire.

Troisièmement, la souveraineté cognitive : que les institutions éducatives conservent la maîtrise de leurs infrastructures, de leurs programmes, de leurs bibliothèques de données.

Mais il faut aller plus loin :

• Former les enseignants à l’éthique du numérique, pas seulement à ses usages ;
• Garantir le droit à l’analogique, c’est-à-dire le droit de se déconnecter, de travailler sans médiation technologique ;
• Créer des comités mixtes – enseignants, étudiants, juristes, citoyens – capables de discuter des choix algorithmiques ;
• Instaurer un principe de réversibilité : pouvoir sortir d’une technologie, revenir en arrière, conserver un droit au doute.

Ces vingt règles – que nous avons formulées dans notre ouvrage – dessinent une gouvernance nouvelle : ni technophile ni technolâtre, mais lucide. Elles reposent sur une conviction simple : l’intelligence artificielle ne doit jamais devenir une instance de pouvoir sans contre-pouvoir.

L’université doit demeurer ce qu’elle a toujours été : un lieu de débat sur la vérité, pas une plateforme de conformité cognitive.

RPP – À l’horizon 2050, un milliard de personnes devraient être engagées dans des parcours d’éducation ou de formation. L’IA est souvent présentée comme la solution à cette massification. Peut-elle vraiment répondre à ce défi sans compromettre la qualité de l’enseignement ?

Virginie Martin et Marcel Saucet – D’ici 2050, plus d’un milliard d’êtres humains seront engagés dans un parcours d’apprentissage. C’est vertigineux – et aucun modèle éducatif traditionnel ne peut, à lui seul, absorber une telle demande.

À ce titre, il faut le dire clairement : l’intelligence artificielle est une réponse, peut-être même la seule à cette échelle. Elle permet d’ouvrir des accès là où il n’y avait que des murs : dans les zones rurales, les pays sous-dotés, les contextes de crise. Elle traduit, simplifie, individualise, rend visible le savoir là où il n’existait pas de structure.

Mais toute réponse technique charrie une politique implicite.

Si l’IA peut démocratiser l’éducation, elle peut aussi la reconfigurer selon ses propres logiques : standardisation, optimisation, surveillance. C’est tout le paradoxe foucaldien : ce qui libère peut aussi contrôler.

Le risque serait de confondre accès au savoir et accès à la pensée. La massification ne vaut que si elle conserve l’altérité, la diversité des langues, des cultures, des imaginaires.

Autrement dit, l’IA peut répondre à la demande quantitative – mais l’humain doit rester garant de la qualité.

C’est là que l’école, dans toutes ses formes, garde son rôle central : accompagner, contextualiser, politiser le savoir pour éviter que l’éducation de masse ne devienne une éducation de marché.

L’enjeu, au fond, c’est de conjuguer les deux héritages : la puissance logistique de l’IA et la responsabilité humaniste du projet éducatif. Car si la machine peut enseigner à tous, seule l’humanité peut encore enseigner pourquoi apprendre.

RPP – Vous soulignez que le modèle technique nécessaire à cette révolution éducative reste profondément inégalitaire. Comment concilier la promesse d’une éducation augmentée par l’IA avec la réalité des fractures numériques entre les régions du monde ?

Virginie Martin et Marcel Saucet – Avant d’être une question d’éducation, c’est une question de géopolitique du savoir.

L’intelligence artificielle éducative devient un nouveau champ de soft power, où se rejouent les rapports de domination mondiaux : infrastructures, langues, normes cognitives.

Autrement dit, l’école du futur est déjà un territoire stratégique – un espace où se disputent non seulement les marchés, mais aussi les imaginaires.

L’intelligence artificielle promet une éducation universelle : en effet, un jour proche viendra où un professeur d’Harvard donnera cours en présentiel devant des étudiants qui paieront, 100 000 $ l’année, pendant que ce cours sera retransmis au Bangladesh, à 100 000 jeunes gens, qui seront coachés par une IA, payant seulement un euro l’année… Mais elle repose sur une infrastructure profondément inégalitaire. Pour qu’un élève du Sahel, de Marseille ou d’Helsinki accède à la même ressource, il faut bien plus que des câbles : il faut de l’électricité stable, du matériel, des serveurs souverains, une langue d’accès, une culture numérique. Et tout cela, aujourd’hui, reste concentré dans les mains de quelques puissances technologiques.

Autrement dit, l’IA mondiale se déploie sur une géographie du savoir asymétrique : il y a ceux qui codent, et ceux qui subissent le code.

Ce déséquilibre n’est pas seulement économique, il est symbolique. Les architectures algorithmiques traduisent des valeurs : une manière d’organiser le monde, de hiérarchiser les priorités, d’effacer certaines réalités culturelles au profit d’autres.

Et cette tension se retrouve dans le champ académique lui-même. On parle de recherche internationale, mais, le plus souvent, il s’agit simplement d’une recherche anglophone, voire globiche, pensée dans un cadre épistémologique unique. Les savoirs situés, ancrés dans des territoires, porteurs d’une histoire ou d’une langue, se trouvent marginalisés, happés par une rationalité dite universelle, c’est-à-dire mathématisée et uniformisée.

La question n’est donc pas seulement technique, elle est épistémologique et civilisationnelle. Comment garantir que les futurs systèmes éducatifs ne soient pas les vecteurs d’un soft power cognitif déguisé ?

Il faut défendre une souveraineté cognitive, capable de produire localement ses données, ses référentiels, ses corpus, ses langues.

Cela suppose un effort collectif : former, traduire, mutualiser, investir dans les humanités numériques à l’échelle mondiale.

Parce qu’une IA éducative sans justice d’accès et sans pluralité épistémique n’est pas une révolution, mais une reproduction raffinée des inégalités.

En somme, la fracture numérique ne se comble pas par la connexion, mais par la capacité critique. Ce n’est pas la fibre qui fera l’égalité, c’est la manière dont chaque société décidera – ce qu’elle veut apprendre du monde – et dans quelle langue elle veut le penser.

RPP – Si vous deviez imaginer l’école du futur, à quoi ressemblerait-elle ?

Virginie Martin et Marcel Saucet – L’école du futur ne sera sans doute pas une, mais peut-être multiple. Elle se fragmentera à l’image du monde.

D’un côté, il y aura certainement des modèles hautement technologisés, dopés à l’IA : robot-tuteurs, programmes adaptatifs, pédagogies immersives. Une éducation fluide, personnalisée, séduisante – où l’on apprendra peut-être à travers le jeu, la simulation, la donnée.

De l’autre, il est aussi possible qu’émergent des pôles de résistance (notamment en Europe) : des écoles sans IA, revendiquant la lenteur, la lecture, le silence, la relation humaine ; des héritières contemporaines des Freinet ou des Montessori, opposant au calcul la conversation, au flux la contemplation.

Entre ces deux pôles, on peut aussi imaginer une polarisation sociale : les élites globalisées, capables d’acheter la rareté du contact humain, se tourneront peut-être vers des institutions analogiques de luxe ; les autres seront formés par des systèmes hybrides, semi-automatisés, gérés par des plateformes, avec des enseignants-superviseurs et des « facilitateurs cognitifs ».

Ce paysage sera sans doute traversé de contradictions : promesse d’un accès universel, mais risque d’une éducation à deux vitesses ; célébration de l’innovation, mais nostalgie du sens.

Et peut-être, au fond, que c’est cela le plus intéressant : l’école du futur ne sera pas un modèle, mais un champ de tensions – entre la machine et l’humain, le global et le local, l’efficacité et la culture, la vitesse et la pensée.

L’essentiel sera de garder, dans ce mouvement, une idée simple et profondément politique : l’éducation (dans son acception française en tous cas) n’est pas un marché de compétences, mais une fabrique de mondes possibles.

Dr Virginie MARTIN, Professeure et chercheuse à Kedge Business School, Politiste, sociologue
et Co-fondatrice de Spirales Institut
Dr Marcel SAUCET, Directeur de la Nestor AI Doctoral School
(Propos recueillis par Florence Delivertoux)

Virginie Martin

Partager sur LinkedinPartager sur XPartager sur Facebook

Les derniers articles

IA et éducation

IA et éducation

ParVirginie Martinet1 autre

Parler d’intelligence artificielle dans l’éducation, c’est d’abord parler du retour du couple savoir/pouvoir – au sens le plus foucaldien du...

Le Conseil constitutionnel et la tentation de l’hubris

Le Conseil constitutionnel et la tentation de l’hubris

ParJean-Éric Schoettl

S’il est une institution qui a muté sous la Ve République – et qui a transformé cette dernière – c’est...

La responsabilité pénale des politiques

La responsabilité pénale des politiques

ParJean-Pierre Camby

Le juge pénal est entré dans l’arène politique en intervenant, par le prononcé de l’exécution provisoire de l’inéligibilité

Énergie: l’heure de la responsabilité

Énergie: l’heure de la responsabilité

ParHenry Buzy-Cazaux

Au rang de nos peurs géopolitiques, la crainte de manquer de carburant. Et si notre rapport aux énergies n’était pas...

Retrouvez nos dernières vidéos

«
Prev
1
/
89
Next
»
loading
play
Qui utilise le plus le mot ecologie
play
La cité des débats - Quelle sécurité : l’OTAN est-elle l’Occident ?
play
La cité des débats - Conférence – L’Occident : ennemi n°1 ?
«
Prev
1
/
89
Next
»
loading

Inscrivez-vous à notre Newsletter

Related Posts

Le Conseil constitutionnel et la tentation de l’hubris
N°1116

Le Conseil constitutionnel et la tentation de l’hubris

La responsabilité pénale des politiques
N°1116

La responsabilité pénale des politiques

Saint John Philby Et le pétrole d’Arabie  devint américain…
Culture

Saint John Philby Et le pétrole d’Arabie devint américain…

À quoi sert un parti politique ? La leçon social-démocrate d’Albert Thomas
N°1116

À quoi sert un parti politique ? La leçon social-démocrate d’Albert Thomas

Comment la Constitution française garantit-elle  l’indépendance de la justice ?
N°1116

Comment la Constitution française garantit-elle l’indépendance de la justice ?

Les droits de succession : au-delà des analyses économiques, un débat de société
Economie

Les droits de succession : au-delà des analyses économiques, un débat de société

Quand les députés ne votaient pas eux-mêmes
N°1116

Quand les députés ne votaient pas eux-mêmes

CEDH : protéger l’Europe du retour de l’épouvante
International

CEDH : protéger l’Europe du retour de l’épouvante

La Revue Politique et Parlementaire
10 rue du Colisée 75008 Paris
Email : contact@revuepolitique.fr
Téléphone : 01 76 47 09 30

Notre Histoire
L'équipe
Mentions légales

Culture
Economie
Faut… de la géopolitique
International
La tribune du parlementaire
Libre opinion
Politique
Science et technologie
Société
Vie du parlement
Nos vidéos

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Se connecter

Add New Playlist

Aucun résultat
Voir tous les résultats
  • Politique
  • International
  • Economie
  • Société
  • Tech
  • Événements
    • La cité des débats
      • Faut-il avoir peur de l’avenir ?
      • Aimons-nous encore la liberté ?
      • Savoir, pouvoir et démocratie
      • S’engager au 21ème Siècle
      • Nouveaux mondes, nouvel Occident ?
    • Le printemps des technologies
      • Edition 2023
      • Edition 2024
      • Edition 2025
      • Edition 2026

Revue Politique et Parlementaire