Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

L’invasion de ChatGPT dans l’éducation : pour, contre, et comment

1er mai 2025 par binaire Coopérer 420 visites 0 commentaire

Un article repris de https://www.lemonde.fr/blog/binaire...

Les IA génératives transforment toutes les disciplines, toutes les habitudes. Elles bouleversent en particulier l’éducation, peuvent parfois paniquer les enseignants. Une spécialiste de l’IA analyse objectivement le sujet. Michèle Sebag est chercheuse émérite au CNRS. Elle est depuis 2017 membre de l’Académie des technologies, et a été membre du Conseil national du numérique. Serge Abiteboul & Chloé Mercier.

Site perso de Michele Sebag

L’irruption de ChatGPT et des intelligences artificielles génératives dans le monde de l’éducation change la donne. Pour quels résultats ? Les prédictions faites sur les impacts d’un tel changement sont variables, allant d’un futur radieux à l’apocalypse.

Ce qui change.

Comme l’avait souligné Michel Serres (Petite Poucette, 2012), l’accès à l’information à travers Wikipédia ou Google permet à chacun·e de vérifier la complétude ou la cohérence des enseignements donnés ex cathedra. Cette capacité modifie la relation des étudiant·e·s au savoir des enseignant·e·s (confiance, mémorisation).

Mais les IA génératives, ChatGPT et ses émules − LLaMA de Meta, Alpaca de Stanford, Gemini de Google, DeepSeek − vont plus loin. Une de leurs fonctions est de savoir répondre à la plupart des questions posées pour évaluer un·e étudiant·e.

Avec ChatGPT, l’étudiant·e dispose ainsi d’un simulateur énergivore de Pic de la Mirandole, ayant réponse à tout − quoique parfois privé de discernement. Chaque étudiant·e se trouve ainsi dans la chambre chinoise1, disposant d’un programme permettant de répondre aux questions, et non nécessairement de la connaissance nécessaire pour répondre aux questions.

L’enseignant·e est en face d’un double dilemme : i) à quoi sert l’enseignement si le fait de bien savoir se servir d’un ChatGPT donne les mêmes réponses ? ii) comment faire la différence entre quelqu’un qui sait, et quelqu’un qui sait se servir d’un ChatGPT ? La donne change ainsi en termes de transmission et d’évaluation des connaissances.

Contre : Coûts matériels et immatériels

Les opposants à l’ascension des ChatGPT dans le monde de l’éducation2 se fondent tout d’abord sur le fait que leur consommation en énergie n’est pas soutenable. En second lieu, ces systèmes ne sont pas fiables (”parfois privé de discernement” : les hallucinations en sont un exemple visible, mais il y a aussi toute l’information invisibilisée par suite des biais de corpus ou d’entrainement). En troisième lieu, leur impact sur la cognition est possible, voire probable.

Je m’abstiendrai de discuter les aspects énergétiques. Pour fixer les idées3, la consommation de ChatGPT (entrainement et usage pendant l’année 2023, avait été évaluée à 15 TWh (consommation énergétique de la France pendant un an : 50 TWh). Ces chiffres sont à prendre avec des correctifs de plusieurs ordres de grandeur : d’une part, chacun·e veut avoir son LLM (facteur ×100, ×1000) ; d’autre part, la consommation d’entrainement et d’usage tend à décroitre massivement pour obtenir les mêmes fonctionnalités (facteur ×1/100, ×1/1000) − ce gain étant naturellement annulé par l’effet rebond, et l’apparition de nouvelles fonctionnalités.

Je souhaite toutefois aller au-delà du fait qu’il vaudrait mieux limiter l’usage des ChatGPT pour des considérations énergétiques (comme les avions, les voitures, les ascenseurs, les cimenteries – continuer la liste). En pratique la pénétration des ChatGPT dans la société augmente.

Je m’abstiendrai aussi de discuter le manque de fiabilité. La liste des bévues de ChatGPT et al. est infinie, mais trompeuse. Le système est chaque jour moins limité que la veille ; c’est un système en interaction avec nous qui le concevons ou l’utilisons, et le système apprend de ces interactions ; la différence entre la version de novembre 2022 et la version actuelle de ChatGPT est comparée à celle qui sépare un singe d’un être humain. Nous reviendrons sur la question de savoir qui possède les données et qui contrôle le modèle.

Le troisième axe d’objection est que l’usage de ChatGPT pourrait priver l’étudiant·e d’une expérience essentielle d’apprentissage en autonomie, mais aussi, et plus gravement, de la confrontation aux sources authentiques des savoirs. Je reviendrai à cette objection centrale dans la suite.

Pour : Une éducation faisant mieux et/ou différemment avec l’IA

Plusieurs objectifs sont envisagés dans le rapport du Sénat sur IA et Éducation4. Un objectif clair consiste à utiliser les ChatGPT pour faire mieux ce qu’on fait déjà, permettant ”de suivre une classe de 25 comme une classe de 10”5. Les ChatGPT pourraient s’adapter aux élèves finement, détectant et prenant en compte les trajets cognitifs et les spécificités individuelles, en particulier les risques ou les troubles. Ils peuvent assister les professeurs, e.g. à générer des examens ou des quizz à partir de leur matériel pédagogique6 .

Ici, un danger et une opportunité sont bien identifiés. D’une part, la qualité des résultats dépend de celle du matériel pédagogique fourni. D’autre part, les dispositions d’accès à ChatGPT incluent la mise à disposition d’OpenAI des sources fournies. Il est donc hautement recommandé de disposer d’un LLM souverain pour l’enseignement7 . On pourrait imaginer un ”commun” informatique, la création d’un ChatPedia qui serait à ChatGPT ce que Wikipédia est à une encyclopédie, avec propriété collective et traçable des contributions. Voir dans ce sens le projet européen Intelligence artificielle pour et par les enseignants (AI4T)8.

D’autres objectifs, en cours d’étude, concernent le développement de fonctionnalités nouvelles (faire différemment, par exemple en proposant un tutorat personnalisé).

La cognition des enseignant·e·s

Un point épineux concerne la formation des enseignant·e·s à des usages éclairés des IA génératives. Il semble impossible, en effet, de former les élèves/étudiant·e·s à de tels usages éclairés si les enseignant·e·s n’ont pas été eux-mêmes formés. Cette logique se heurte toutefois au contexte : une fraction des enseignant·e·s avouent avec résignation ou indifférence leur éloignement total des mathématiques ; comment les attirer vers une formation formelle et roborative, pénétrant le quoi et le comment des technologies telles ChatGPT ?

La formation des formateurs a aussi un impact sur la hiérarchie des institutions et des savoirs. Bref, elle génère des résistances.

Comment avancer, dans un contexte où les perceptions de haut niveau (il est bon/nécessaire de former à l’IA) ne recoupent pas les perceptions au niveau des acteurs (l’IA est : i) incompétente ; ii) voleuse de sens/travail/valeur) ?

La cognition des apprenant·e·s

Selon l’Unesco les IAG pourraient priver les apprenant·e·s de la possibilité de développer leurs capacités cognitives et leurs compétences sociales par l’observation du monde réel, par des pratiques empiriques pouvant être des expériences, des discussions avec d’autres humains, ou par un raisonnement logique indépendant.

Ce danger peut être analysé dans le cadre du Maitre ignorant de Jacques Rancière (1987), distinguant l’enseignement ”qui explique” et celui ”qui émancipe”. Dans le premier cas, la base de discussion est que l’un·e sait et l’autre apprend ; le message implicite est que le savoir s’obtient d’un maitre.

Dans le second cas, l’objectif est non d’enseigner le savoir, mais d’établir que l’autre est capable d’apprendre tout ce qu’iel veut, au moyen de principes d’utilisation de notre propre intelligence. Il s’agit donc bien de réaliser nos capacités d’entendement autonomes.

Le danger attendu des IAG selon l’Unesco concernerait ainsi les capacités d’entendement autonomes des apprenants, donc, dans le cadre de l’enseignement ”qui émancipe”.

Une expérience

Cette expérience a été réalisée par Louis Bachaud et ses étudiant·e·s, à l’Université de Lille en 2024. L’objectif était de faire interagir un professeur, des étudiant·e·s, et un ChatGPT, de telle sorte qu’iels en sortent au bout de 2 heures, satisfaits, intrigués, motivés, ayant appris quelque chose, sans que le processus ne soit fondé sur l’identification de boucs émissaires (en particulier, ni le professeur, ni aucun élève).

Dans le premier essai, le professeur ayant posé une question générale, pertinente pour le cours (Quel est l’impact de Deezer sur l’audience d’un·e artiste ?), la classe s’est divisée en petits groupes, dont chacun·e a écrit une requête et obtenu une réponse.

Les requêtes et les réponses sont mises dans un pot commun ; chacun·e cherche de quelle requête procède une réponse, appréhendant graduellement et empiriquement ChatGPT comme un système d’entrée sortie. L’intérêt de tels essais est de permettre à chacun·e, y compris le professeur, de se servir du collectif pour comprendre rapidement comment se servir d’un nouvel outil, quels en sont les usages, et comment la qualité des sorties dépend de celle des demandes. En somme, tous se perfectionnent dans l’art du prompting, art fort obscur, fort demandé et qui fait présentement la fortune des cabinets de conseil en IA génératives.

Les essais suivants ont raffiné ce schéma, en situant d’où parle la requête : réponds à cette question en sachant que je suis une musicienne de 30 ans − un DJ de 18 ans − un professeur de musique − une adolescente de 13 ans. Ces essais ont un aspect ludique (par exemple, la même commande précédée de je suis une fille de 18 ans ou je suis une femme de 18 ans ne produit pas la même réponse) conduisant à une discussion intéressante du modèle et des archétypes sous-jacents (reflétant essentiellement la culture US en 2024).

En résumé, ce type d’expérience réalise l’enseignement qui émancipe, avec un retour globalement positif des étudiant·e·s sur le savoir appris et le recul nécessaire.

Recommandations proposées

Cette première expérience va dans le sens des axes 1 et 2 du rapport cité du Sénat, concernant respectivement l’accompagnement des acteurs, et la formation d’une culture citoyenne de l’IA. D’autres expériences à l’initiative des enseignant·e·s, et leurs retours, suivant la méthodologie proposée, ou d’autres méthodologies, permettront d’affiner les savoirs qui peuvent être acquis, et comment.

Pour l’expérience considérée, les acquis obtenus reposent sur le développement de deux compétences. La première consiste, au niveau individuel, à savoir faire varier la formulation de ses demandes et sa position (d’où parle-t-on). La seconde, au niveau collectif, consiste à savoir observer les pratiques des autres et à en discuter.

La compétence exploratoire − savoir appréhender un sujet selon des points de vue différents − semble une capacité utile toutes choses égales par ailleurs. La compétence collective est peut-être plus intéressante encore ; outre l’intérêt des compétences sociales acquises, l’interaction permet de faire jeu égal avec ChatGPT.

Nous défendrons en effet la thèse selon laquelle l’entendement d’une IA ne doit pas être comparé à celui d’un être humain (ma fille n’a pas eu besoin de millions d’images de chats et de chiens pour apprendre à distinguer un chat d’un chien…) mais à celui d’un ensemble d’humains. Le fait que les IAs ne doivent pas être appréhendées au niveau de l’individu a également été souligné par Geoffrey Hinton9.

Les interactions d’un groupe humain, discutant entre eux des réponses obtenues et des bonnes questions à poser à ChatGPT, peuvent contribuer au développement des capacités cognitives et des compétences sociales, dans un contexte vivifiant.

Avertissement : l’expérience doit être suivie par les étudiant·e·s ; indépendamment de son intérêt en soi, il convient donc qu’elle soit notée.

Michèle Sebag, CNRS émérite, LISN, Université Paris-Saclay.


1 Mind, Language and Society, Searle, 1998. Supposons qu’une personne glisse un message écrit en chinois sous la porte d’une chambre. Supposons dans la chambre une personne disposant d’un programme, spécifiant comment écrire une réponse en chinois (algorithme de dessin des caractères) en fonction d’un algorithme de lecture du dessin du message initial. Ce programme permet à la personne de la chambre de répondre en chinois au message chinois reçu. La personne hors de la chambre, recevant une réponse à son message, en conclut que la personne dans la chambre sait parler chinois.

2 Voir en particulier la tribune de Serge Pouts-Lajus dans le Monde de l’Éducation du 26 novembre 2024.

3 Rapports de l’Académie des Technologies, https://www.academie-technologies.fr/publications/prouesses-et-limites-de-limitation-artificielle-de-langages-avis/ et https://www.academie-technologies.fr/ia-generative-et-mesinformation-le-webinaire-de-la-tech-edition-3/.

4 https://eduscol.education.fr/sti/sites/eduscol.education.fr.sti/files/actualites/17473/17473-r24-101-syn.pdf

5 Arthur Mensch, cofondateur de l’entreprise Mistral AI, 22 mai 2024 : https://www.senat.fr/compte-rendu-commissions/20240520/affeco.html.

6 Plateforme Aristote, Renaud Monnet, Centrale Supélec.

7 Open-ML France https://www.linagora.com/fr/laureat-france-2030-au-titre-du-projet-openllm-france.

8 https://www.france-education-international.fr/expertises/cooperation-education/projets/ai4t-artificial-intelligence-and-teachers?langue=fr

9G. Hinton note : Deux IA peuvent se transmettre instantanément les modèles appris par l’une ou l’autre [si les IA disposent d’une même représentation]. Cependant, la transmission des connaissances relatives à (e.g. la mécanique quantique) des enseignant·e·s vers les apprenant·e·s peut prendre beaucoup de temps et ne présente pas de garanties.

Licence : Pas de licence spécifique (droits par défaut)

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.