Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

L’IA peut-elle nous dispenser de l’effort d’apprendre ?

Un article repris de https://theconversation.com/lia-peu...

Que signifie apprendre dans un monde où l’intelligence artificielle peut rédiger un texte, résoudre un problème ou générer une image en quelques secondes ? L’irruption de nouveaux outils invite à se pencher sur la place de l’effort dans l’apprentissage et à discerner différents niveaux de recours à l’IA.


L’intelligence artificielle (IA) suscite autant d’espoirs que d’inquiétudes dans le domaine de l’éducation. D’un côté, elle offre des outils puissants pour accompagner l’apprentissage, par exemple, en ajustant des exercices aux performances de chaque élève en maths, comme le font DreamBox ou Adaptiv’Math, ou en adaptant l’apprentissage des langues à l’âge de l’apprenant, comme Duolingo.

Mais elle peut aussi favoriser la paresse intellectuelle : les IA actuelles ne se contentent plus de fournir des pistes ou des chiffres comme les moteurs de recherche ou les calculatrices, mais produisent directement des contenus complets – résumés, essais, emails, codes informatiques – à la place de l’élève. Cette délégation excessive des tâches cognitives ouvre la possibilité d’une réduction de l’engagement dans la formulation des idées, la réflexion et la régulation du processus de production intellectuelle.


À lire aussi : Pourquoi continuer d’apprendre à écrire à la main dans un monde d’IA


Cette tension concerne à la fois les élèves, les enseignants et les institutions, et soulève des questions essentielles : quel est le rôle de l’effort dans l’apprentissage ? Que signifie apprendre dans un monde où l’IA peut rédiger un texte, résoudre un problème ou générer une image en quelques secondes ?

Ni miracle technologique ni menace apocalyptique

Il existe toute une gamme d’usages possibles de l’IA en éducation, depuis des formes très passives et peu critiques, par exemple, lorsqu’un élève demande à une IA de résumer une lecture obligatoire sans lire ou analyser le contenu par lui-même, jusqu’à des intégrations créatives où les élèves collaborent avec une IA pour écrire des histoires, coder un jeu ou simuler une conversation avec un personnage historique, tout en exerçant leur jugement et leur pensée critique.

Il s’agit donc de dépasser les visions polarisées présentant l’IA soit comme une solution miracle, soit comme une menace pour les capacités cognitives humaines. Ces deux positions contiennent chacune une part de vérité, mais elles occultent une dimension essentielle : l’éducation vise avant tout le développement de la personne et de son autonomie.

Historiquement, l’IA a été pensée comme un moyen de simuler l’intelligence humaine. Lors de l’atelier fondateur de Dartmouth en 1956, où le terme « intelligence artificielle » a été proposé pour la première fois par John McCarthy, les chercheurs affirmaient que « chaque aspect de l’apprentissage ou toute autre forme d’intelligence peut être décrit de manière suffisamment précise pour qu’une machine puisse le simuler ».

Aujourd’hui, avec l’essor des modèles génératifs, cette promesse de simulation a laissé place à une dynamique de disruption : l’IA ne se contente plus d’imiter, elle remodèle nos manières d’apprendre. Les modèles génératifs comme ChatGPT ou Gemini produisent des contenus inédits (textes, images, vidéos), modifiant ainsi l’accès, la production, mais aussi la qualité de l’information.

Une école à la traîne face à l’essor de l’IA

Le développement rapide de ces outils dépasse largement la capacité des systèmes éducatifs à les intégrer de manière réfléchie. On observe un décalage entre le potentiel technologique et la capacité pédagogique d’aider les apprenants à en faire un usage approprié selon le contexte et leurs besoins d’apprentissage. L’enjeu n’est pas tant d’interdire ou de généraliser l’IA, mais de garantir que son utilisation soutienne réellement les apprentissages, en préservant l’effort intellectuel et les objectifs pédagogiques.

Les IA dites « génératives » (ou genIA), comme ChatGPT, permettent désormais de résumer, d’expliquer des textes de résoudre des problèmes ou encore de créer des images, des sons ou des vidéos. Leur usage peut être utile dans un cadre éducatif, notamment pour aider les enseignants à répondre aux défis révélés pendant la pandémie de Covid-19 : différenciation pédagogique, soutien à l’apprentissage autonome, accessibilité accrue.

Ainsi, une IA peut générer des explications d’un même concept à différents niveaux de complexité (on peut lui demander par exemple « Explique-moi ce concept comme si j’avais 5 ans »), ce qui permet à chacun d’avancer à son rythme dans une même classe. L’élève qui a des difficultés de compréhension pourra disposer ainsi d’éléments de connaissances préalables tandis qu’un élève avec une bonne progression pourrait obtenir des pistes d’approfondissement.

Mais, comme d’autres technologies auparavant présentées comme révolutionnaires (télévision éducative, tablettes, etc.), leur impact dépendra de l’intention pédagogique et de l’engagement des enseignants, des élèves et de leurs familles.

Bannir ou tout autoriser ? Une fausse alternative

Interdire totalement l’IA ou en autoriser un usage sans limites sont deux stratégies simplistes. Elles négligent la complexité des contextes éducatifs, des profils d’élèves et des attentes pédagogiques. La clé réside dans une approche qui respecte l’agentivité des enseignants et des apprenants, c’est-à-dire leur capacité à agir, à choisir, à créer et à réfléchir sur leur propre apprentissage.

Pour cela, il est crucial de penser des usages créatifs, critiques et participatifs de l’IA, qui valorisent le rôle actif des élèves et des enseignants dans les processus d’apprentissage.

Pour aider à clarifier ces usages variés, j’ai développé le modèle #ppai6, qui identifie six niveaux d’engagement avec l’IA à l’école :

  • Consommation passive : l’élève reçoit du contenu généré par l’IA sans interaction ni compréhension du fonctionnement de l’outil. Exemple : lire un résumé généré automatiquement sans vérifier ou reformuler ;

  • Consommation interactive : l’élève interagit avec l’IA, qui adapte ses réponses, mais sans véritable appropriation. Exemple : poser des questions à un chatbot, mais en recopier les réponses sans analyse ;

  • Création individuelle : l’élève utilise l’IA pour produire un contenu personnel. Exemple : écrire un poème ou créer une image avec DALL·E à partir de ses propres idées ;

  • Création collaborative : des groupes d’élèves utilisent l’IA pour produire ensemble du contenu. Exemple : créer une pièce de théâtre en groupe sur un événement historique à partir de conversations avec des outils IA qui simulent des personnages historiques ;

  • Co-création participative : l’IA devient un outil au service d’un travail collectif complexe impliquant divers acteurs éducatifs. Exemple : mener une enquête interdisciplinaire avec IA entre élèves, enseignants et partenaires.

  • Apprentissage expansif avec IA : l’IA soutient des transformations profondes dans les manières de penser et d’apprendre, en aidant, par exemple, à modéliser des systèmes ou à résoudre des contradictions dans des situations complexes. Exemple : utiliser l’IA pour simuler le système écologique de la cour d’école afin, ensuite, de proposer des idées pour l’améliorer.

Considérer la variété des interactions possibles avec l’IA

Le modèle #ppai6 permet d’adopter une vision plus nuancée de l’intégration de l’IA en contexte scolaire. En distinguant six niveaux d’usage, il aide à qualifier concrètement les pratiques et à comprendre que « faire usage de l’IA » peut recouvrir des formes très contrastées, tant sur le plan cognitif que pédagogique.

Il s’agit donc d’un outil de réflexion pour les enseignants, les chercheurs et les décideurs, qui invite à ne pas considérer l’IA comme un bloc homogène, mais comme un ensemble d’interactions possibles, plus ou moins riches sur le plan cognitif et éducatif.

Par ailleurs, ce modèle ouvre la voie à une progression pédagogique adaptée à l’âge et au niveau des élèves. Certains niveaux, comme la consommation passive, peuvent être utilisés ponctuellement, par exemple pour découvrir un outil ou pour amorcer une séquence. Mais ils ne doivent jamais devenir la norme ni remplacer l’effort de réflexion, de collaboration ou de créativité.


À lire aussi : ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire


À mesure que les élèves avancent dans leur parcours, il est souhaitable de les guider vers des usages plus actifs, comme la cocréation ou l’apprentissage expansif, adaptés à leur maturité cognitive. Plutôt que de bannir certains niveaux, il s’agit d’en comprendre les limites, d’en discuter les risques, et de les dépasser progressivement vers des formes d’apprentissage où l’IA devient un levier d’émancipation plutôt qu’un substitut cognitif.

L’IA peut être un formidable allié dans l’apprentissage, mais elle ne doit jamais se substituer à l’effort humain ni au désir d’apprendre ou d’enseigner. Dans un contexte où il est possible de déléguer le raisonnement à des machines, la volonté de comprendre, de progresser, de créer ou de transmettre devient encore plus essentielle.

C’est cette volonté qui distingue les enseignants et les élèves qui mobilisent l’IA pour enrichir leur activité de ceux qui s’en servent simplement pour éviter l’effort. L’IA n’est qu’un outil. L’éducation, elle, reste une affaire profondément humaine.

The Conversation

Margarida Romero a reçu des financements pour son activité de recherche de la Commission européenne pour le projet Horizon augMENTOR "Augmented Intelligence for Pedagogically Sustained Training and Education" (https://augmentor-project.eu/).

Licence : Pas de licence spécifique (droits par défaut)

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.