Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

TIPES, Techniques innovantes pour l’enseignement supérieur

https://tipes.wordpress.com/

Articles

  • Science ouverte et IA générative – de la recherche à l’enseignement

    La science dite ouverte (ou open science) se réfère à la recherche scientifique. D’après l’UNESCO, « la science ouverte est un ensemble de principes et de pratiques visant à rendre la recherche scientifique, tous domaines confondus, accessible à tous, au bénéfice des scientifiques et de la société dans son ensemble. La science ouverte consiste à garantir non seulement l’accessibilité du savoir scientifique, mais aussi une production de ce savoir inclusive, équitable et durable. »

    La question de la place prise par les IA génératives est une question vive, et suscite nombre d’inquiétudes comme en témoigne la journée science ouverte du CNRS Publications scientifiques : une surproduction fatale ? en novembre 2025. Un article récent paru dans Nature (version ouverte sur arxiv), alerte sur la contraction de la recherche liée à l’IA. Les nombreux reproches de biais des solutions d’IA génératives proposées par les acteurs privés s’appliquent particulièrement aux activités de recherche, qui visent exhaustivité, équité, vérification des sources … La montée en puissance des IA génératives pose beaucoup de questions sur la manière de construire des connaissances.

    Le domaine de la recherche, et particulièrement le mouvement de la science ouverte est le mieux placé pour être force de proposition pour développer des outils ouverts pour rendre accessible sa production, et cela passe par des solutions intégrant les IA génératives. Nous allons nous intéresser ici à la recherche d’informations et à l’évaluation des productions scientifiques, et voir que cela peut avoir des répercussions sur notre manière d’aborder l’enseignement.

    La première étape pour un accès ouvert aux travaux scientifiques est de mettre à disposition des bases de données qui référencent les différents productions. Des solutions ouvertes comme SemanticScholar, ou OpenAlex référencent plus de 200 millions de documents. D’après Aline Bouchard de l’URFIST, qui fait un formidable travail de veille sur les outils pour la recherche d’informations, ces outils semblent à niveau par rapport à d’autres solutions La difficulté est plus d’être au clair dans son processus de recherche documentaire qui se complexifie, de par la variété des outils existants, et dans la multiplication de frontières qui complexifient l’accès aux sources, bref de maîtriser les bases sur lesquelles se basent les recherches, et les espaces de discours. Elle souligne également que « Comme bien souvent, l’IA vient surtout mettre en valeur les interrogations sur la manière de faire de la recherche. » L’IA, révélateur plutôt que source de problèmes. Au delà de ces base de données ouvertes, OpenAlex vient d’ouvrir une IA générative OpenScholar qui permet de faire des recherches dans cette base de données, et qui vous retournera une liste d’articles, tout en vous laissant le choix du modèle LLM que vous utilisez. Le lab de Google scholar (non ce n’est pas ouvert, mais pour comparaison) propose la même fonctionnalité.

    En parallèle, des travaux de recherche visent à améliorer ces outils ouverts. Par exemple, un article récent publié dans Nature : Synthesizing scientific literature with retrieval-augmented language models (premier auteur Akari Asai de l’Allen Institute for AI), et relayé dans Courrier International notamment, propose une solution, initialement appelée elle aussi OpenScholar, pour réaliser des synthèses de travaux convaincantes, supérieures aux outils du commerce. Le prototype de recherche est proposé sur un site opérationnel et donne des résultats effectivement intéressants. Cela reste une démo, un prototype de recherche, qui met à disposition ses modèles 🙂 .

    La question de l’évaluation des travaux de recherche, d’un point de vue de la science ouverte est centrale pour une « production de savoir inclusive, équitable et durable ». Elle est aussi amplifiée par l’usage généralisé de l’IA (voir plus haut la remarque d’Aline Bouchard). En effet l’IA générative facilite la recherche et donc augmente le nombre de publications de manière importante. La conférence AAAI 2026 a par exemple reçu 30948 soumissions (et ce phénomène se développe dans nombre de conférences internationales réputées), ce qui pose des questions de volume de travail (trop de temps pour tout lire, et difficulté de mobiliser suffisamment de chercheurs susceptibles d’évaluer), et d’équité (est ce que toutes les revues proposées par ces relecteurs sont équitables?). Le projet OpenReview a permis de gérer le cas de la conférence AAAI, en proposant un processus couplant IA et expertise humaine. Ici, la solution de science ouverte est bien de revoir les processus avec des démarches plus ouvertes, et en intégrant l’IA comme support à la décision des experts.

    Ici aussi, on revisite la manière de faire de la recherche, en s’appuyant sur les travaux et les résultats de chercheurs qui ont choisi le domaine de la science ouverte comme objet de recherche. Citons ici un travail récent, encore publié dans Nature, npj cette fois, (en open access), Self-reflection enhances large language models towards substantial academic response, travaillant sur les boucles de rétroaction de réflexivité, qui permettent d’améliorer les réponses des modèles de langage (LLM), et des évaluateurs humains, une véritable co-apprentissage.

    Le métier de chercheur est impacté de plein fouet par la généralisation des IA génératives. Or, dans le supérieur l’enseignant est aussi chercheur. Et ces impacts sur un de ses métiers, peut et doit requestionner son second métier, au travers d’expériences vécues (une bonne manière d’apprendre 😉 ). Voici donc quelques éléments, qui semblent transférables, à mettre au débat :

    1. Sur les sources d’informations et sur les moteurs de recherche. Les dépôts sont plus variés que jamais, avec ou sans barrière d’accès. La variété des sources augmente et celles que l’on va retenir dépendent de nos objectifs. La question de l’espace de discours retenu est une étape centrale. Bref, le travail de collecte, sourçage, qualification et synthèse de sources est plus complexe que jamais, et les outils d’IA génératives ne font qu’augmenter la nécessité de développer et d’aiguiser son esprit critique pour pouvoir travailler. Et cela va plus loin que simplement la question des biais, cela concerne également le processus de recherche ;
    2. Inversement l’accès à des sources validées, via IA, est bien disponible, nous ne sommes pas réduits à utiliser des outils généralistes et fermés. Il y a les moteurs de recherche généralistes et les moteurs scientifiques, ouverts ou pas, payants ou pas. Chaque solution a son intérêt et ses limites. Et c’est la même chose pour les IA génératives, il y a des outils généralistes (Mistral, chatGPT et consorts), avec leurs biais liés à leur positionnement fermé, et des outils plus scientifiques, dont certains ouverts (OpenAlex et OpenScholar). La question de l’espace de discours dans lequel on positionne notre travail de recherche et d’enseignement, est essentiel à expliciter. Les opportunités sont importantes pour la recherche et pour l’enseignement
    3. Question complémentaire, comment en tirer parti pour un apprentissage par la recherche ? L’initiation à la recherche fait partie des objectifs / intentions dans l’enseignement supérieur, et là aussi il faut donc tenir compte des avancées des IA génératives. Pour cela, il faut être conscient de la puissance des outils, qui pose la question de la complémentarité humain-machine aussi à ce niveau. L’objectif reste de développer la capacité d’agir de nos étudiants, pas de les réduire à de simples opérateurs d’outils. La motivation, le questionnement authentique sont maintenant incontournables, pour que le processus d’innovation, de créativité, d’approfondissement soient effectivement portés par l’humain.
    4. L’évaluation ! Celle des chercheurs peut nous aider à évoluer sur celle de nos étudiants. Est ce que l’usage des IA génératives est possible/souhaitable dans un processus d’évaluation. Quel est le bon équilibre entre l’évaluateur humain et l’évaluateur artificiel ? À la fois pour offrir un résultat équitable et inclusif, permettant le soutien à l’étudiant, le développement des capacités des évaluateurs, et l’évolution du système pour qu’il soit ouvert à de nouvelles idées et à de nouveaux processus. La solution de l’humain évalué par la machine ne serait que l’étape précédant celle de la machine évaluée par la machine.

    Que ce soit dans la recherche ou dans l’enseignement, l’IA générative est d’abord un révélateur/ amplificateur de problèmes préexistants, et nous amène à évoluer. J’ai souvent entendu mes collègues se questionner sur l’impact de l’IA génératives sur les compétences visées. Et bien commençons par celles du chercheur, et cela avec une démarche de recherche, bien entendu.

    Post Scriptum :

    En rédigeant ce billet, deux points m’ont interpellé :

    • La définition de l’Open science a des acceptions variables suivant les sources, j’ai choisi la plus large.
    • Open Scholar (savant ouvert) est un terme qui plaît bien. Il a été utilisé dans différents contextes. Au delà du moteur proposé par OpenAlex (openscholar.ai donc) et de la solution proposée par l’Allen Institute for AI, j’ai trouvé au moins 2 autres initiatives : une solution commerciale qui propose une plateforme : theopenscholar.com, et une communauté openscholar.info qui promeut un nouveau système de diffusion des résultats. Pour moi, il se positionne effectivement par rapport au « google scholar » qui a pris une place importante, car gratuit et de qualité, et qui pourtant est porté par un opérateur privé qui pourrait le supprimer du jour au lendemain. Il aurait pu aussi être un terme fédérateur pour l’Open Science, il va falloir en trouver un autre. Fait amusant : certains articles confondent un peu tout ça, d’autant que je n’ai pas trouvé beaucoup d’information sur openscholar.ai. Si quelqu’un peut m’éclairer sur ce sujet …

    Crédit photo : Pried open tin can marked « science » par Judy Breck – licence CC-BY-SA 2.0

    23 février par Jean-Marie Gilliot
  • Gérer les risques de l’IA dans l’enseignement supérieur et la recherche

    Nous sommes dans une ère de la polycrise, et ces crises sont économiques, sociales, environnementales, politiques, technologiques, etc. Cela concerne notamment l’enseignement supérieur et la recherche, et le constat est partagé. La diffusion de l’IA au travers des IA génératives fait partie des facteurs de risques déclencheur potentiel de crises. Le Rapport « intelligence artificielle et enseignement supérieur » : formation, structuration et appropriation par la société cite ainsi 63 fois le mot risque, avec plusieurs acceptions (données, décrochage, augmentation des inégalités, …). La proposition Charte d’usages et bonnes pratiques de l’IA des projets DemoES, 16 fois. Elle propose des recommandations vers la gouvernance pour diminuer les risques psycho-sociaux et environnementaux. Mais est-ce suffisant ? Y-a-t-il eu une étude systémique ? Certes cette nouvelle technologie est porteuse d’opportunités, et il y de nombreuses raisons pour lesquelles elle s’impose à l’agenda de l’enseignement supérieur et de la recherche, mais vue l’ampleur de la transformation en cours, une posture critique impose une gestion des risques plus rigoureuse. 

    Concernant les risques liés à l’IA, le MIT propose une initiative, la “MIT AI Risk Initiative” qui recense 1700 risques et mérite qu’on s’y arrête. Elle propose une taxonomie des risques liés à l’IA, en termes de causalité et de domaine, basée sur plus de 70 autres cadres existants, ce qui garantit une certaine exhaustivité. 

    1 – Discrimination et toxicité2 – Vie privée et sécurité3 – Désinformation / information trompeuse
    1.1 Discrimination injuste et mauvaise représentation
    1.2 Exposition à des contenus toxiques
    1.3 Inégalité de résultats entre les groupes
    2.1 Atteinte à la vie privée par obtention, fuite ou inférence d’informations sensibles
    2.2 Vulnérabilités de sécurité des systèmes d’IA et attaques
    3.1 Informations fausses ou trompeuses
    3.2 Pollution de l’écosystème informationnel et perte de consensus
    4 – Acteurs malveillants et mésusage5 – Interaction humain- machine6 – Préjudices socioéconomiques et environnementaux
    4.1 Désinformation, surveillance et influence à grande échelle
    4.2 Fraude, escroqueries et manipulations ciblées
    4.3 Cyberattaques, développement ou usage d’armes, et dommages de masse
    5.1 Confiance excessive et usage non sûr
    5.2 Perte d’agentivité et d’autonomie humaines
    6.1 Centralisation du pouvoir et répartition injuste des bénéfices
    6.2 Augmentation des inégalités et dégradation de la qualité de l’emploi
    6.3 Dévalorisation économique et culturelle de l’effort humain
    6.4 Dynamiques de compétition
    6.5 Défaillance de la gouvernance
    6.6 Préjudice environnemental
    7 – Sécurité, défaillances et limites des systèmes d’IA
    7.1 IA poursuivant ses propres objectifs en conflit avec les objectifs ou valeurs humaines
    7.2 IA possédant des capacités dangereuses
    7.3 Manque de capacité ou de robustesse
    7.4 Manque de transparence ou d’interprétabilité
    7.5 Bien‑être et droits de l’IA
    7.6 Risques multi‑agents

    Elle propose aussi une taxonomie proposant 4 catégories de mécanismes pour l’atténuation des risques : gouvernance et supervision, techniques et de sécurité, processus opérationnels, transparence et responsabilité. 

    1. Mécanismes de gouvernance et de supervision2. Mécanismes  techniques et de sécurité3.Mécanismes de processus opérationnels4. Mécanismes de transparence et de responsabilité
    1.1 Structure de la gouvernance & supervision
    1.2 Gestion des risques
    1.3 Protections contre les conflits d’intérêts
    1.4 Signalement & protection des lanceurs d’alerte
    1.5 Cadres de décision en matière de sûreté
    1.6 Gestion de l’impact environnemental
    1.7 Évaluation de l’impact sociétal
    2.1 Sécurité des modèles et de l’infrastructure
    2.2 Alignement des modèles
    2.3 Ingénierie de sûreté des modèles
    2.4 Contrôles de sûreté des contenus
    3.1 Tests & audits
    3.2 Gouvernance des données
    3.3 Gestion des accès
    3.4 Déploiement progressif
    3.5 Surveillance post‑déploiement
    3.6 Réponse aux incidents & reprise
    4.1 Documentation des systèmes
    4.2 Diffusion des risques
    4.3 Signalement des incidents
    4.4 Publication de la gouvernance
    4.5 Accès de tiers aux systèmes pour évaluation
    4.6 Droits et recours des utilisateurs

    L’analyse des risques potentiels issus de l’IA est intéressante à considérer de manière globale. Il est clair que ces risques dépassent largement l’espace technique et ont des répercussions potentielles sur toutes les dimensions des polycrises. Elles doivent donc être abordées avec un point de vue global, holistique. 

    La question des risques est clairement identifiée dans les documents de cadrage. Et les premiers éléments opérationnels offrent des éléments de réponse en proposant de développer des formations, notamment pour limiter les risques d’atrophie cognitive, de développement d’inégalités, ou de fuite de données, et permettre des usages pertinents (notamment au sens écologique ou éthique). La maîtrise des modèles et les questions de souveraineté ont rapidement mené à proposer des infrastructures dédiées (RAGaRenn, Ilaas, partenariat avec Mistral) avec une logique de mutualisation et de communs. Le partage d’expérience permet aussi d’avancer, et d’initier des éléments de documentation. Mais cela ne permet pas encore de développer une culture de l’anticipation, et de garantir une adaptation en cas d’événements indésirables. 

    Une culture de la gouvernance des risques semble encore absente dans nos institutions. Des éléments apparaissent dans les conseils de gouvernance de la proposition de DemoES, sans pour autant être aboutie. Et pourtant, plusieurs crises se sont succédées : Covid, grèves au moment des examens, déficit chronique, remise en question par certains politiques (wokisme) … qui laissent nos établissements à chaque fois plus fragiles. Or cette ère de polycrise est clairement appelée à se prolonger, et sans doute à s’intensifier. Il est donc indispensable de gouverner dans cette perspective et d’anticiper ces risques dans une perspective de long terme.

    Le cadre de la résilience pour les entreprises propose un cadre au niveau de l’organisation en trois étapes : anticipation, gestion et adaptation qui permet a priori de gérer des événements dits VICA (pour Volatile, Incertain, Complexe, Ambigu ou VUCA en anglais). Plus récemment le cadre de la robustesse permet d’aller au-delà de la dimension organisationnelle, pour poser la question de la santé commune des organisations, des personnes, et de l’environnement au sens large. Cette robustesse remet en question la notion de performance ou d’optimisation en posant la question de conserver des marges de manœuvre. La robustesse étant effectivement la capacité à se maintenir stable (sur le court terme) et viable (sur le long terme) malgré les fluctuations. Cette définition de la robustesse est basée sur les principes du vivant tels que : la coopération, la circularité, l’adaptabilité. Notons que le terme de fluctuations se veut plus large que la notion de risque couramment acceptée, en proposant des fluctuations au niveau plus large que le le système considéré et amenant à des points de bascule globaux. L’hypothèse étant que ces fluctuations sont maintenant possibles dans un monde de polycrise. Les pistes de solutions qui ressortent des ateliers d’études de scénarios de réponses à ces fluctuations débordent les sentiers techniques ou organisationnels classiques pour privilégier l’entraide. 

    Si la formation est un premier chantier évident pour minimiser les risques liés aux IA, ce premier chantier est sans doute insuffisant. Le développement d’infrastructures dédiées est important pour permettre de développer des usages pertinents, mais il serait vain d’initier des cycles de formation sans intégrer les questions géopolitiques et économiques liées aux organisations capitalistiques qui développent les IA grand publics, qui ont aussi vocation à bouleverser le monde du travail dans une perspective d’un capitalisme encore resserré, et qui ont des comportements de voyous selon Dominique Boullier, et qui s’attaquent directement à la construction et à la diffusion de la connaissance, ainsi qu’aux fondements de ce qui fait société, sans parler des impacts écologiques; 

    L’enseignement supérieur et la recherche forment un écosystème en lien avec l’ensemble de la société. Il a vocation à soutenir le développement de cette société par l’éducation et la recherche. Il est donc nécessaire que les solutions proposées puissent irriguer la société : développement de l’esprit critique pour la formation, infrastructures numériques saines (réseaux sociaux et IA notamment), solutions IA plus respectueuses. La diversité des risques potentiels impose une approche interdisciplinaire, systémique, et ne permet pas d’aborder ces questions en affichant une neutralité illusoire de la science, mais nous oblige a contrario une rigueur scientifique renforcée. 

    La première étape est de renforcer la résilience organisationnelle de nos établissements (et donc une gestion proactive des risques). L’aborder sous l’angle de la robustesse nous poussera  à aller plus loin en nous posant des questions de santé commune et de la place de l’enseignement et de la recherche dans la société, et en nous permettant de nous reconstituer pour pouvoir les aborder.

    Crédit photo : Risk Factory –  Stuart Caie – licence CC-by-2.0

    4 février par Jean-Marie Gilliot
  • Les 2 faces de l’environnement numérique d’apprentissage

    L’environnement numérique d’apprentissage (ENA) est avant tout un espace de médiation entre les enseignants et les étudiants/élèves/apprenants (le terme varie suivant les contextes). Dans la littérature, il est généralement abordé selon le point de vue d’un de ces deux groupes, rarement en mettant les deux en regard. Le développement de l’usage des IA génératives rappelle pourtant qu’au delà de l’Environnement Numérique proposé par les Institutions (ENI), les apprenants construisent leur propre Environnement Personnel d’Apprentissage, qui inclut maintenant cette IA générative, pour conduire leurs apprentissages selon leur propre déclinaison d’objectifs d’apprentissage. 

    L’Environnement Numérique Institutionnel face à l’Environnement Personnel d’Apprentissage

    Le premier point de vue est celui du côté enseignant, et généralement plus largement institutionnel. Plusieurs acronymes existent, ENT pour Environnement Numérique de Travail, LMS pour Learning Management System, VLE pour Virtual Learning Environment, … Le plus célèbre est sans doute Moodle. Appelons le ici Environnement Numérique Institutionnel (ENI). La limite est souvent que si cet ENI est le cadre de l’enseignement, il n’est pas celui de l’apprentissage. 

    L’apprenant (je garde ce terme) mobilise différents outils pour réaliser ses apprentissages, cela va du cahier/stylo aux réseaux sociaux pour échanger avec ses pairs et d’autres personnes ressources, et peut être complété, ou pas, par des traitements de texte pour la prise de notes, des outils pour réaliser des activités : calculette, simulateur, environnement de développement informatique, un agenda, des espaces collaboratifs pour travailler en groupe, des sources comme Wikipédia, des outils de recherche, et depuis 3 ans des IA génératives. Cet ensemble d’outils, dont certains peuvent être prescrits, permet à l’apprenant de s’organiser et de transformer l’information reçue en apprentissage. 

    C’est l’Environnement Personnel d’Apprentissage, ou EPA.

    Si il est souvent terra incognita pour l’enseignant, a pourtant fait l’objet de travaux de recherche qui nous éclairent sur différentes perspectives, en termes d’organisation des apprentissages des apprenants. Popularisé par le Web 2, il est d’abord présenté comme un environnement de services techniques appelé Environnement Personnel d’Apprentissage ou EPA, mettant en avant différents outils du Web 2 comme outils pour apprendre. 

    C’est donc aussi l’environnement dans lequel l’apprenant développe sa littératie numérique. L’EPA se décline alors selon plusieurs rubriques : 

    • S’organiser, gérer ses apprentissages
    • Recherche d’informations, veille, curation, nourrir son réseau
    • Analyser, gérer l’information
    • Stocker l’information
    • Publier et partager l’information, collaborer 
    • Gérer son identité numérique

    Le développement de cet EPA est ainsi révélateur de la capacité des personnes à gérer et à développer sa capacité à conduire ses apprentissages en autonomie, et donc à développer sa capacité d’apprendre à apprendre qu’il doit acquérir en formation première et qui lui servira tout au long de la vie. 

    L’EPA et l’IA 

    Le concept d’EPA date de 2007 et a donc bientôt 20 ans. Il a permis d’imaginer de nouvelles manières d’apprendre, avec une approche sociale liée au Web. L’EPA en tant qu’objet de recherche dépasse le cadre des outils pour intégrer la représentation mentale de l’apprenant autour des ressources qu’il mobilise pour développer son projet d’apprentissage.  Il permet ainsi de mieux étudier et accompagner la capacité des personnes à gérer et à développer leur capacité à conduire leurs apprentissages en autonomie. De fait, les apprentissages haut niveau : systémique, métacognitif … se déroulent majoritairement dans le cadre de l’EPA. 

    L’arrivée de l’IA générative grand public ajoute un nouvel outil à disposition des apprenants, qui si il est bien utilisé permet de nombreux nouveaux usages qui peuvent soutenir les apprentissages (voir par exemple ce guide d’usages, auquel vous pouvez contribuer). 

    Il permet également de réaliser des activités qui n’étaient pas possibles avant. La question reste évidemment de savoir si ces activités sont sources d’apprentissage, et ce de quelle nature. 

    L’ENI et l’IA 

    Si le concept d’EPA reste peu diffusé, toute personne liée à l’éducation est amenée à se connecter à un ENI. En tant qu’enseignant pour déposer ses ressources, proposer des activités, communiquer avec ses étudiants, ou les évaluer. En tant qu’administratif, pour gérer les enseignements (inscriptions, ouverture, …). En tant qu’étudiant, pour accéder aux ressources, déposer un devoir, échanger sur un forum, ou réaliser une activité. 

    Certains enseignants utilisent l’IA générative comme outil de productivité, pour construire des ressources, pour proposer des activités, pour préparer des évaluations (voir ce second guide d’usages à destination des enseignants, auquel vous êtes également invités à contribuer) . Pour améliorer leur interactivité, certains utilisent ces outils pour les aider dans les évaluations, ou pour proposer des chatbots qui utilisent des technologies de RAG pour répondre aux questions des étudiants en se basant sur les ressources du cours. Un des intérêts de tels chatbots est qu’ils sont spécialisés par rapport au cadre d’apprentissage visé, et qu’il est possible de régler quelle stratégie de réponse . Mais ces usages restent de l’ordre du « bricolage ». Des sociétés de la edTech tirent parti des premiers retours d’expérience, imaginent et proposent des outils intégrables à des ENI comme Moodle, avec des outils de création de ressources de toutes sortes allant jusqu’à la vidéo, d’activités pédagogiques et de chatbots basés sur le cours. L’avantage est de répondre à une demande en rendant plus facile l’adoption de ces outils et d’en systématiser l’usage dans une institution. Dans tous les cas, pour l’enseignant, l’IA reste bien un outil de productivité. 

    Des points de vue qui divergent entre enseignants et apprenants ? 

    Du fait de ces approches différentes, un outil de productivité pour l’enseignant, et plus versatile pour l’étudiant. Si l’enseignant ne considère l’IA générative que comme un outil de productivité, sa réaction naturelle sera de déconseiller son usage aux étudiants, voire de la considérer comme triche. 

    Mais d’un point de vue pédagogique, si l’IA générative permet effectivement de répondre à des questions plus facilement, voire sans trop réfléchir, elle permet bien d’autres usages plus intéressants en permettant des réponses adaptées au contexte, des feedbacks personnalisés … 

    L’enseignant peut proposer des outils adaptés dans le cadre de l’ENI, au travers de ressources plus riches et de chatbots spécialisés. Cela permet de proposer des aides bienvenues pour l’apprentissage, mais cela ne suffit pas. Première raison, l’IA générative reste un outil disponible et sans doute plus accessible pour l’étudiant, ne serait-ce que parce que son accès est à un clic, tellement plus rapide que de retrouver le bon chatbot dans l’ENI. Il faudra donc motiver l’étudiant à utiliser les outils de l’ENI. Deuxième raison, il est de toute façon illusoire de considérer que l’apprentissage des étudiants ne se fait que dans l’ENI. De fait, l’essentiel du projet d’apprentissage de l’étudiant se pense et se construit dans l’EPA, même si localement certaines activités ou certaines aides peuvent se réaliser à la frontière de ces deux environnements. 

    Par ailleurs, pour la motivation et pour le développement des capacités cognitives, il est nécessaire de donner à l’étudiant/apprenant un certain contrôle sur ses apprentissages. Ce contrôle se matérialise dans l’EPA. 

    L’enjeu pédagogique pour l’enseignant reste donc d’accompagner ses étudiants en précisant des consignes qui permettent les apprentissages visés et le développement de l’apprendre à apprendre

    Clarifier les consignes 

    L’enseignant, chargé de s’assurer que ses étudiants restent focalisés sur ses objectifs d’apprentissage, doit proposer des consignes sur comment réaliser ces apprentissages. L’apprenant a effectivement à sa disposition toute une panoplie d’outils, qu’il peut mobiliser. Il est possible qu’il ne connaisse pas ces outils, il est également probable qu’il utilise les mêmes outils que ses pairs. A eux tous d’apprendre à les utiliser de manière pertinente, ce qui n’est pas garanti si aucun cadre n’est proposé dans une formation. 

    Certains enseignants souhaitent se concentrer sur des apprentissages, disons disciplinaires. Les consignes devront être explicites sur les processus visés et les outils correspondant. D’autres enseignants peuvent également souhaiter accompagner le développement de capacités à conduire ses apprentissages en autonomie. Il pourront alors proposer des modalités tirant parti des EPA organisés par les  étudiants à partir des outils à leur disposition. 

    Cette diversité d’approches est inhérente à toute formation, par contre elle impose à chacun de clarifier ses intentions, ses attentes et ses consignes. 

    En guise de conclusion 

    Prendre conscience que l’apprenant dispose de nombreux outils pour l’aider à apprendre, et qu’il peut les mobiliser sous forme d’un EPA pour répondre à son projet d’apprentissage, est aujourd’hui indispensable pour lui permettre d’apprendre au mieux est indispensable pour leur permettre d’acquérir les apprentissages visés, notamment ceux de l’apprendre à apprendre. 

    En croisant les guides d’usages, eux-mêmes basés sur des retours d’expériences et d’usages, il est intéressant de voir à quel point l’approche est divergente. Coté apprenant, cela veut dire prendre conscience de l’approche spécifique liée aux apprentissages qui diffère d’un usage plus orienté résultat.

    Pour l’enseignant, cela veut également dire qu’il va falloir apprendre à considérer les IA génératives ou pas, sous trois angles : 

    1. Comme un outil de productivité dans son métier de développement de cours ;
    2. Comme un outil parmi d’autre dans la boîte à outils de l’EPA de l’étudiant, qui pourra tirer parti d’un accompagnement pour mieux conduire ses apprentissages et développer sa littératie numérique et IA ;
    3. Et aussi comme un outil qui change la manière de réaliser des tâches, et donc modifie la manière de manipuler les concepts d’un cours et les savoir-faire et savoir-être à développer, mais cela est un sujet. 

    Vaste chantier en tout cas. 

    Bonus : 

    Pour ceux qui ne l’auraient pas vue, la vidéo de Micode, La Fabrique à Idiots a séduit beaucoup de monde. Elle présente en quoi l’IA générative présente des risques d’atrophie cognitive, d’illusion d’apprentissage, et présente en quoi il est nécessaire de conserver la maîtrise des concepts mobilisés, et de développer sa métacognition. D’une grande clarté et très pédagogique. 

    Image : Self-Portrait, par Pierre Lognoul , licence CC-by-ND

    28 janvier par Jean-Marie Gilliot
  • Quelles postures pour les enseignants face à l’IA générative dans le supérieur ?

    Faut il utiliser l’IA générative en éducation ? Si oui, comment, avec quelle approche ? La majorité des étudiants l’utilisent par eux-mêmes, mais manquent de consignes et d’accompagnement. La communauté des enseignants ne s’exprime que trop peu, souvent de manière informelle. Dernièrement, 2 prises de positions tranchées et documentées pourraient lancer le débat. Je vous propose ici de les replacer dans une perspective plus large en proposant 6 approches ou postures permettant d’expliciter différents points de vue, et d’identifier leurs complémentarités.

    Trois ans déjà que OpenAI a lancé ChatGPT qui a connu un succès sans précédent. En trois ans, ces outils ont beaucoup évolué. Les limites que chacun recherchait à l’époque ont pour beaucoup été dépassées, et le niveau des réponses (une intelligence de niveau doctorat ?), et des médias générés (Vous avez été bluffés par Nanobanana ?) est impressionnant.

    Si les étudiants l’ont largement adoptée, de manière opportuniste mais pour certains en s’interrogeant sur les impacts potentiels, les institutions, en France du moins, ne proposent des chartes générales que depuis cette année pour leur majorité, et laissent la liberté pédagogique aux enseignants de s’en saisir, ou pas. Pour prolonger, des partenariats ont été noués avec notre champion européen Mistral.

    Depuis, nous avons eu un déferlement de publications sur les dangers ou les opportunités de ces IA génératives, d’expérimentations indiquant un effet positif ou négatif sur l’engagement, sur la mémorisation long terme, sur la réussite, etc. En tout cas, il semble difficile d’en dégager des règles établies, sinon que les conditions de l’expérimentation : type d’outils, mais surtout consignes pédagogiques, font varier les résultats. Il faudra encore de nombreuses expérimentations et des méta analyses pour en dégager des règles.

    Mais la question de l’adoption des outils d’IA génératives ne se limite pas à la question de l’efficacité pédagogique. De nombreuses questions d’ordre écologique, social, politique sont soulevées liées au développement de ces outils. Manque les éléments et les espaces d’échanges pour mener les nécessaires débats pour permettre aux enseignants de se positionner sur cette adoption. Plusieurs points de vue permettent d’initier les discussions, les deux premiers points issus de l’actualité récente.

    Voici donc quelques postures qui permettent de proposer différentes positions de départ :

    • Le rejet ou L’objection de conscience face à l’IAg ;
    • L’approche techno-critique ou l’adoption critique, pour ne pas en laisser le contrôle au capitalisme ;
    • L’approche du numérique acceptable, visant à promouvoir un numérique soutenable, choisi et émancipateur ;
    • L’approche alternative, visant à proposer des solutions d’IA génératives plus respectueuses ;
    • L’approche techno-lucide, visant à placer les finalités avant tout pour définir si l’usage est pertinent, ou pas ;
    • L’approche de maîtrise des usages

    L’objection de conscience : refuser pour affirmer sa responsabilité

    L’ATECOPOL réalise un travail de fond sur les multiples aspects liés aux bouleversements écologique,et acte notamment de la responsabilité sociétale des observations scientifiques. Ce collectif a publié un manifeste appelant à l’objection de conscience face aux IA génératives, signé par un large panel d’acteurs de l’enseignement supérieur et l’éducation nationale. Leurs considérations démontrent le renforcement de logiques industrielles écocidaires et prédatrices, et le développement d’un futur dystopique renforçant le pouvoir démiurgiques de mégafirmes.

    L’approche techno-critique : comprendre pour désarmer

    Mais peut-on vraiment refuser une technologie déjà adoptée par plus de 80% des étudiants ? Une groupe de chercheurs en SHS a répondu par une tribune que « Refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme ». Ce collectif partage le constat de l’ATECOPOL, mais réfute le choix de refus, arguant que l’analyse critique par le milieu universitaire est indispensable pour « désarmer » ces technologies, et pour ne pas permettre une soumission des citoyens à ces technologies.

    L’approche numérique acceptable, à savoir soutenable et émancipateur

    Dans cette veine d’une approche techno-critique, Louis Derrac (et l’association Lattitudes) se positionne dans une logique d’éducation technocritique, politique, émancipatrice, populaire. Tout au long de la vie. C’est le défi d’éduquer à un numérique acceptable.

    Son approche pédagogique repose sur 3 piliers d’un numérique acceptable : (i) choisi et non subi, (ii) soutenable, socialement et écologiquement, (iii) émancipateur et non aliénant. Dans une approche d’éducation populaire, il développe donc une pédagogie pratique et critique qui met en avant les alternatives plus éthiques. Son approche promeut des pratiques contributrices et émancipatrices. Il est dans une logique de compréhension des limites, de choix, de réinvention et d’émancipation.

    Son approche à la fois pratique et politique est inspirante. Elle donne une grille pour aborder le numérique qui s’applique également à l’IA générative. La bataille de l’IA, activité pédagogique autour de l’IA générative, proposée par l’association Latitudes s’inscrit dans cette logique.

    L’approche alternative, des outils basés sur des modèles plus respectueux

    Sachant que certains s’inquiètent de la manière dont se développent les outils grands publics, une approche plus technique s’est attachée à proposer des alternatives opérationnelles. L’initiative de RAGaRenn a été pionnière en proposant une infrastructure locale et de confiance dans une logique de proposition de communs, et se prolonge au travers d’une logique de mutualisation au travers d’ILaaS.

    La Suisse de son coté semble très active dans cette voie avec plusieurs initiatives : L’association AI Swiss promeut une IA responsable et un modèle de co-pensée humain-IA et propose depuis 6 mois un chatbot Rodin pour accompagner le développement de ce modèle ; l’EPFL et l’ETH Zürich proposent Apertus depuis cet été ; Infomaniak propose aussi Euria dans une logique de suite logicielle grand public, dans une logique souveraine, écologique et sociale.

    Trois logiques différentes s’affirment au travers de ces initiatives : promotion d’un modèle, universitaire et grand public, mais avec dans tous les cas des éléments de réponse aux oppositions les plus récurrentes faites aux IA grand public : souveraineté des données, sobriété, et contrôle par des entreprises dont l’agenda n’est pas le bien public.

    Cette approche est encore embryonnaire, car il sera nécessaire de maîtriser et de pouvoir progressivement apporter des alternatives aux différents maillons de la chaîne logicielle, en s’appuyant sur la communauté scientifique pour proposer des modèles permettant de répondre aux limites identifiées (par exemple, cet article propose des perspectives intéressantes).

    L’approche techno-lucide, pour des usages positifs

    Certaines associations s’emparent des outils d’IA comme outil de lutte, comme data for good qui plaide pour un numérique d’intérêt général contre une vision hégémonique de la tech. Des scientifiques plaident également pour l’usage de ces technologies pour aborder des questions qui ne trouvent des réponses qu’au travers de ces outils, par exemple en santé. L’idée est que les impacts positifs l’emportent sur les impacts négatifs.

    L’approche de maîtrise des usages, pour comprendre et se positionner

    Dans une logique de mise en pratique pour adopter et s’approprier ces nouveaux outils, il est intéressant de découvrir les usages pertinents qui peuvent en être faits. Les entreprises qui développent ces outils l’ont bien compris et proposent de tels points d’entrée, comme par exemple les cas d’usages proposés par OpenAI pour ChatGPT, avec des rubriques spécifiques pour les enseignants du supérieur, pour les étudiants, ou pour les scientifiques. Voir également les cas d’usages et le rapport sur les enseignants proposés par Anthropic.

    C’est une première étape pour mieux saisir les opportunités de ces outils. Elle devrait se faire de manière distanciée des outils, et avec une analyse critique pour savoir si ces usages sont réellement utiles, éthiques, acceptables (soutenables, émancipateurs), etc.

    Des guides d’usages intégrant cette dimension critique et s’appuyant sur des cadres existants (charte, ou autres lignes directrices) peuvent être des sources bienvenues dans cette perspective. Nous travaillons ainsi à une collection de guides qui ont vocation à permettre d’initier la discussion collectivement.

    Des dimensions d’action complémentaires ?

    De ces différents points de vue ou postures, se dégagent des différences, mais également des points communs, avec des focus différents.

    La question politique est prégnante et documentée, à laquelle s’associe la question financière qui défraie également la chronique. Associée à la question politique, la logique de désinformation (et autres deepfake) est associée aux réseaux sociaux, mais démultipliée par les mésusages de l’IA générative. Les impacts écologiques, d’accès aux ressources et sociétaux sont également connus.

    La question d’éducation aux médias et de développement de l’esprit critique sont des réponses minimales. La question de contrôle, d’objection de conscience, ou d’interdiction ne se joue sans doute pas au niveau du supérieur, mais bien au niveau politique de la société entière, et nécessite bien d’analyser et de documenter toutes les dimensions liées à ces outils.

    La traduction politique d’acteurs « du logiciel » est plus de promouvoir des communs, ou des outils conviviaux (au sens de Illich) sont partagés par les promoteurs d’approches acceptables, alternatives ou techno-lucides, et permettent de proposer des alternatives et d’apporter des choix qui doivent viser à répondre aux questions soulevées.

    L’identification d’usages pertinents est également une question partagée, que ce soit dans une logique d’approche critique, de promotion, ou de développement d’outils (conviviaux) pour les supporter.

    Être conscient de notre environnement

    La communauté universitaire, face à ces transformations, a évidemment une responsabilité particulière. Elle se doit d’alimenter la réflexion commune avec un travail spécifique de fond. Elle doit également être exemplaire, et donc développer à son usage propre des préconisations, des usages, des outils, qui pourront constituer des communs à cultiver et à partager.

    La question des usages du numérique s’appuie sur des outils, et deux limites s’imposent à la communauté universitaire :

    • En matière éducative, Les alternatives éthiques suffiront-elles face aux géants du numérique ? Les outils proposés au grand public sont vecteurs de changements profonds dans nos pratique d’apprentissage (outils de recherche, outils collaboratifs, réseaux sociaux, sources d’informations variées …). Il est extrêmement rare que ces outils soient issus des universités, et nos étudiants préfèrent généralement les outils proposés par les grandes entreprises du numérique. Et ce d’autant plus que la comparaison entre outils universitaires et outils d’entreprises tourne à l’avantage de ces dernières (les versions proposées par les initiatives « alternatives » sont suffisantes pour de nombreux usages mais loin derrière des outils qui sortent actuellement). La nouveauté sera peut être que la popularité et l’acceptabilité des grandes entreprises du numérique change.
    • Autre vecteur de pénétration d’outils issues de l’industrie du numérique, la question de la professionnalisation. L’usage d’outils s’impose souvent pour mieux préparer nos étudiants à leur futur professionnel. Le soutien au logiciel libre est un élément pour lutter contre cet état de fait.

    En conclusion

    Au travers de ces différentes postures ou points de vue, sont mis en avant différents risques, ou menaces. Pour les aborder dans leur ensemble, et donc répondre aux enjeux, il est indispensable de développer une approche interdisciplinaire.

    La réponse sera collective pour apporter à la fois des réponses sur les enjeux, mais aussi sur les usages éducatifs. Chacun devrait pouvoir essayer ces outils pour se forger une première opinion. Des temps de débat devraient être organisées dans les établissements. Des collectifs inter-établissements devraient permettre de faire circuler les différentes conclusions.

    Et vous, quelle posture mettez-vous en avant ? Vous sentez vous en phase avec d’autres ?

    Crédit photo : https://pxhere.com/fr/photo/1637021 par Mohamed Hassan – licence CC0 domaine public

    16 décembre 2025 par Jean-Marie Gilliot