[Cet article a été publié, sous une licence CC BY-SA 3.0 IGO sur le site de l’UNESCO : ici. Nous en donnons une version traduite au français]
Par Tel Amiel, Glenda Cox et Colin de la Higuera
La trajectoire actuelle des grandes technologies et de l’IA propriétaire menace d’agrandir les fractures éducatives plutôt que de les réduire. Les coûts financiers et environnementaux des outils commerciaux d’IA, ainsi que leur préoccupation pour le profit et le développement principalement destiné aux marchés riches, risquent de laisser de côté précisément les communautés qui pourraient bénéficier le plus de l’intégration de l’IA en tant que technologie éducative.
Des outils de plus en plus puissants sont concentrés entre les mains de riches entreprises et individus, développés à huis clos avec peu de transparence ou de responsabilité publique (Fraser, 2025). L’aspect « boîte noire » qui prévaut dans les systèmes d’IA contribue à renforcer l’hégémonie du Nord global1, en ancrant les préjugés existants et en perpétuant les inégalités. Lorsque les technologies éducatives sont développées principalement dans une perspective occidentale et néolibérale, elles reflètent et amplifient inévitablement ces visions du monde, notamment une approche lucrative de l’IA et de l’éducation, tout en marginalisant les autres.
Les principes d’ouverture peuvent considérablement améliorer l’écosystème actuel de l’IA. Malgré des noms tels que « OpenAI », bon nombre de ces systèmes sont tout sauf ouverts, représentant ce que les critiques identifient à juste titre comme de l’« open-washing » : la commercialisation de systèmes propriétaires présentés comme étant ouverts tout en maintenant un contrôle strict sur leur fonctionnement et les aspects critiques de leur écosystème technique. Comme le suggère Widder (2024), « même à son maximum, l’IA ouverte dépend fortement des ressources de quelques grandes entreprises, qui contrôlent efficacement l’industrie de l’IA et l’écosystème de recherche au-delà » (p. 831). Nous ne pouvons ignorer qu’à l’heure actuelle, la plupart de ce qui est considéré comme de l’IA « ouverte » est fermée, dans un certain nombre d’éléments clés essentiels, notamment les données d’entraînement, les pondérations et la transparence globale en ce qui concerne le travail humain.
Nous proposons une stratégie d’« optimisme non stupide » en matière de technologie éducative (Facer & Selwyn, 2021). Cette approche reconnaît les avantages potentiels de la technologie tout en restant critique quant au fait que les attitudes techno-solutionnistes servent souvent la croissance économique et l’accumulation de capital plutôt que les besoins éducatifs réels. Nous devons éviter le piège qui consiste à considérer les solutions technologiques (y compris l’IA) comme des réponses complètes à des défis éducatifs complexes. Nous pouvons être optimistes dans le sens où les systèmes d’IA peuvent incarner l’ouverture : des biens publics numériques conçus pour être transparents dans leur structure et leur fonctionnement et incarner des structures de gouvernance collaborative.
L’accent mis sur les modèles fermés basés sur l’efficacité et les gains économiques a considérablement renforcé le discours historique sur la réussite scolaire, mesurable à l’aide d’indicateurs de performance (notes, diplômés, articles) et de retour sur investissement (Luke, 2023). Nous commencerons par présenter deux exemples de cette logique : les ressources éducatives traditionnelles fermées et les applications actuelles de l’IA dans l’éducation. Ensuite, nous discuterons brièvement de la manière dont certains aspects de l’ouverture (technologie, pratiques, ressources et gouvernance) peuvent nous aider à contrer la trajectoire actuelle de l’IA dans l’éducation.
Une éducation moins durable
La conception traditionnelle des contenus éducatifs a toujours été « fermée », adaptée à des cas d’utilisation et à des publics spécifiques. Cela peut être positif, mais aussi limitatif, car les investissements substantiels dans le développement peuvent conduire à des contenus qui ne répondent qu’à des besoins et à des intérêts très spécifiques et qui ne sont pas destinés à être modifiés, adaptés ou améliorés. Même si les auteurs ont imaginé que les ressources éducatives seraient utiles à long terme, la manière dont elles sont produites, diffusées et conservées dans le contexte du modèle économique dominant les rend éphémères.
Les manuels scolaires imprimés en sont l’exemple le plus flagrant. Ils sont généralement assez coûteux, et dans certains pays, les gouvernements les achètent et les distribuent gratuitement (grâce à des subventions publiques). Ces manuels ne peuvent généralement pas être conservés par les élèves et doivent être rendus à l’école à la fin du trimestre ou de l’année, jusqu’à ce que, après un certain temps, de nouvelles éditions soient rachetées par le gouvernement. Les ressources numériques ne constituent pas nécessairement une amélioration. Les systèmes de gestion de l’apprentissage permettent d’accéder aux ressources pendant une période limitée ou dans le cadre spécifique d’un cours. Une fois la période d’inscription terminée, les élèves n’ont plus accès aux supports numériques du cours. Ces choix de conception, évidents dans les contenus traditionnels, sont intégrés dans les technologies éducatives, qui contribuent à définir la nature même de ce que nous apprécions dans l’éducation.
Un phénomène similaire peut être observé dans l’accent mis actuellement sur l’optimisation de l’IA dans l’éducation. L’optimisation est le domaine dans lequel l’IA peut s’épanouir : pour fonctionner, elle a besoin de critères de performance numérique. L’IA en a besoin pour affiner ses algorithmes et pour se démarquer. L’IA est plus performante que les humains aux échecs parce qu’elle a un classement (ELO) plus élevé. Elle peut également être plus performante en matière de diagnostic, car elle peut détecter plus de tumeurs que les médecins humains avec un nombre équivalent de faux positifs (Lang, 2023). Les taux d’erreur sont un indicateur crucial qui permet aux algorithmes de paraître meilleurs que les alternatives. Plus important encore, les critères permettent aux systèmes de remplacer les problèmes d’apprentissage mal définis par des problèmes d’optimisation bien définis. Les indicateurs de performance définissent le problème à résoudre : détecter plus de tumeurs signifie résoudre un problème de diagnostic.
Mais ce n’est pas le cas pour l’éducation. Les indicateurs de performance tels que les notes de fin de trimestre ne devraient pas représenter les objectifs de l’éducation. Avoir plus d’élèves avec des notes plus élevées n’est pas un indicateur suffisant de l’expérience éducative. Pourtant, aujourd’hui, le discours sur l’adoption de l’IA dans l’éducation est truffé de récits promouvant des plateformes et des services qui fournissent une génération de contenu personnalisée et automatisée et aident les enseignants à enseigner plus efficacement, prétendant aider les élèves à obtenir de meilleures notes ou à améliorer d’autres indicateurs de performance facilement mesurables.
Et tous les acteurs du secteur de l’éducation sont soumis à une forte pression pour obtenir des résultats : les enseignants doivent atteindre des indicateurs numériques et des objectifs de référence, et les élèves, de plus en plus jeunes, apprennent à mesurer leur réussite à l’aune des notes qu’ils obtiennent. Mais toute activité qui se définit uniquement par des indicateurs de performance et un retour sur investissement peut probablement être réalisée de manière plus efficace et moins coûteuse par l’IA.
L’argument en faveur de l’IA dans l’éducation comme catalyseur de performance ou optimiseur de travail est renforcé par les grandes entreprises technologiques capitalistes, qui s’inscrivent parfaitement dans les idéologies éducatives néolibérales qui prévalent dans le monde entier. Cette logique dominante ne fera que nous amener à valoriser de plus en plus la concurrence et les résultats simples et mesurables. Ce n’est pas ce que nous voulons pour l’éducation.
Lutter contre l’open-washing
Trois dimensions de l’ouverture peuvent, selon nous, contribuer à un avenir meilleur.
Des technologies ouvertes
La plupart des technologies éducatives intégrant l’IA aujourd’hui sont des boîtes noires : « un dispositif ou un système qui, pour des raisons pratiques, est décrit uniquement en termes d’entrées et de sorties. Il n’est pas nécessaire de comprendre ce qui se passe à l’intérieur de ces boîtes noires. Il suffit de les considérer comme des instruments qui remplissent certaines fonctions utiles » (Winner, 1993). Cela inclut les tableaux de bord basés sur la logique de « l’intelligence économique », les outils d’évaluation automatique, les modèles de génération de texte et de médias, et les systèmes de recommandation personnalisés. Les systèmes de boîte noire encouragent certaines formes d’engagement. Sous la bannière de la « culture de l’IA » et de l’innovation, les enseignants et les élèves sont chargés, voire contraints, de devenir des « utilisateurs éthiques » et compétents sur le plan instrumental des systèmes techniques (Buzato & Gonsales, 2025).

Nous pouvons créer des systèmes d’IA qui rendent des comptes aux communautés éducatives plutôt qu’aux actionnaires des entreprises. Cette transparence permet un examen critique des systèmes d’IA, permettant aux chercheurs, aux éducateurs et aux étudiants de participer et de remédier aux biais ou aux limites. L’IA et les autres systèmes technologiques automatisés devraient suivre des définitions plus rigoureuses de l’ouverture qui permettent aux données d’entraînement2[1] , aux pondérations et au code d’être examinés et améliorés par diverses communautés. Les données d’entraînement seraient représentatives de la diversité mondiale ou du contexte local (pour les systèmes plus petits et plus ciblés), et les systèmes seraient conçus pour amplifier les voix marginalisées plutôt que de perpétuer les structures de pouvoir existantes. Cela est particulièrement important dans les contextes éducatifs, où les systèmes d’IA pourraient autrement renforcer les stéréotypes sur les personnes qui « appartiennent » à certains domaines ou qui sont capables d’apprendre.
Pratiques et ressources ouvertes
L’intégration croissante des boîtes noires dans les contextes éducatifs a exacerbé l’importance accordée aux mesures superficielles de l’apprentissage. L’avenir pourrait voir l’émergence de modèles qui mettent davantage l’accent sur le processus, l’expérience et les résultats, sur des « pédagogies approfondies » qui privilégient l’attention et l’établissement de relations significatives entre « soi-même, ses semblables, ses proches et le monde naturel » (Andreotti, 2021). La logique des pratiques et des ressources ouvertes promeut ces valeurs.
La concurrence et l’efficacité ont besoin de chiffres. À l’inverse, dès que vous disposez de chiffres censés mesurer une performance, la concurrence (faire mieux que les autres) et l’efficacité (faire mieux qu’avant) se développent. Mais même lorsque ces chiffres sont significatifs, la réduction du problème initial (dans notre cas, mieux apprendre ou mieux enseigner) à un problème d’optimisation simplifié (améliorer votre score) s’installe toujours. Cette approche est parfois soutenue par l’argument moderne selon lequel elle est désormais « axée sur les données » (data-driven). Pourtant, cette approche n’est axée sur les données que lorsque tout le monde a accès aux données et aux processus, et non à un nombre généré par une formule à partir des données. Les technologies ouvertes vont au-delà de la simple présentation d’indicateurs choisis.
Les ressources éducatives libres peuvent grandement contribuer aux pratiques d’engagement critique. Elles sont sous licence libre et généralement disponibles dans des formats ouverts, ce qui permet aux communautés du monde entier de les examiner, de les modifier et de les adapter aux contextes et aux besoins locaux. Les étudiants peuvent porter un regard critique sur ce qui leur est « donné », « un mouvement d’ouverture à d’autres aventures épistémologiques » (Matos de Souza, 2024). L’utilisation des RELs peut être un outil permettant aux étudiants et aux enseignants de se considérer comme des co-créateurs actifs de contenus, de technologies et de programmes d’études qui reflètent leurs réalités vécues, plutôt que comme des consommateurs passifs de contenus et d’outils pré-packagés créés uniquement pour maximiser des résultats facilement mesurables.
Pour ce faire, nous devons toutefois repenser l’éducation comme un bien public plutôt que comme une marchandise. Les principes de l’éducation ouverte sont fondamentalement anticapitalistes, affirmant que le contenu et les connaissances doivent être gratuits et accessibles à tous. Cette position reconnaît que l’éducation n’est pas un avantage privé, mais une ressource collective qui renforce les communautés et les sociétés.
Une gouvernance ouverte et participative de l’éducation
Nous sommes déjà entrés dans ce que certains chercheurs qualifient d’ère « post-numérique » (Fawns et al., 2023), une époque où les technologies numériques sont tellement ancrées dans notre quotidien qu’elles ne sont plus une nouveauté, mais font simplement partie intégrante de l’infrastructure de la société. Nous pourrions bientôt nous retrouver dans un monde « post-IA », où l’intelligence artificielle, sous ses nombreuses formes, sera également intégrée dans notre vie quotidienne et notre apprentissage. Nous avons vu comment la plateformisation de l’éducation a favorisé l’entrée silencieuse et non consentie des outils d’IA (chatbots, générateurs d’images, intelligence économique) dans les systèmes web utilisés dans l’administration et l’enseignement. La question n’est pas de savoir si l’IA va transformer l’éducation – c’est déjà le cas –, mais quelles valeurs sous-tendront sa logique dans l’éducation.
L’IA n’est pas simplement un outil permettant de rendre les approches éducatives existantes plus efficaces. Nous devrions plutôt nous demander comment les principes d’ouverture pourraient permettre l’émergence de formes entièrement nouvelles d’apprentissage ouvert et de communauté fondées sur le bien commun, afin de pouvoir orienter le développement de l’IA vers le bien-être humain plutôt que vers le profit des entreprises.
Du point de vue de l’éducation, la nature rapide et en constante évolution de l’IA ne fait que renforcer la nécessité d’une étape supplémentaire. Les établissements d’enseignement doivent créer de toute urgence des mécanismes permettant aux parties prenantes de réagir rapidement et efficacement au changement. Une culture d’ouverture en matière de technologie, de pratiques et de ressources nous aide à envisager une gouvernance plus participative afin de répondre aux incertitudes et aux demandes auxquelles sont confrontés les étudiants et les enseignants.
Références
Andreotti, V. D. O. (2021). Depth education and the possibility of GCE otherwise. Globalisation, Societies and Education, 19(4), 496–509.
Buzato, M. E. K. & Gonsales, P. (2025). Dimensões e enfoques alternativos para um modelo de letramentos críticos de inteligência artificial. Revista Brasileira de Linguística Aplicada, 25(2), e44436. https://doi.org/10.1590/1984-6398202544436
Facer, K. & Selwyn, N. (2021). Digital technology and the futures of education : Towards ‘non-stupid- optimism. UNESCO. https://unesdoc.unesco.org/ark :/48223/pf0000377071
Fawns, T., Ross, J., Carbonel, H., Noteboom, J., Finnegan-Dehn, S. & Raver, M. (2023). Mapping and Tracing the Postdigital : Approaches and Parameters of Postdigital Research. Postdigital Science and Education, 5(3), 623–642. https://doi.org/10.1007/s42438-023-00391-y
Fraser, N. (2025). Les travailleurs sont cannibalisés par la classe capitaliste. Interview sur Aljazeera. https://www.youtube.com/watch?v=RLoRoWrYo4E
Lång, K. et al. Artificial intelligence-supported screen reading versus standard double reading in the Mammography Screening with Artificial Intelligence trial (MASAI) : a clinical safety analysis of a randomised, controlled, non-inferiority, single-blinded, screening accuracy study. The Lancet Oncology, Volume 24, Issue 8, 936 – 944
Luke, J. (2023). Closing the factory : Reimagining higher education as commons. In L. Czerniewicz & C. Cronin (Eds.), Higher Education for Good : Teaching and Learning Futures (pp. 161–182). Open Book Publishers. https://doi.org/10.11647/obp.0363.06
Matos-de-Souza, R. (2024). Forgetting Larrosa. Post-western Guidelines for Reading Modernity. Praxis Pedagógica, 24(37), Article 37. https://doi.org/10.26620/uniminuto.praxis.24.37.2024.49-71
Widder, D. G., Whittaker, M., & West, S. M. (2024). Why ‘open’ AI systems are actually closed, and why this matters. Nature, 635(8040), 827–833. https://doi.org/10.1038/s41586-024-08141-1
Winner, L. (1993). Upon Opening the Black Box and Finding It Empty : Social Constructivism and the Philosophy of Technology. Science, Technology, & Human Values, 18(3), 362–378. https://www.jstor.org/stable/689726
Auteurs
Tel Amiel est professeur adjoint à la Faculté d’éducation de l’Université de Brasilia (Brésil), où il coordonne la Chaire UNESCO en éducation ouverte et technologies pour le bien commun, qui fait partie du réseau UNITWIN en éducation ouverte. Il est membre du comité consultatif de la Coalition dynamique IGF/UNESCO sur les REL. Il est cofondateur de l’Open Education Initiative, un groupe de recherche militant.
Université de Brasilia, amiel@unb.br, https://orcid.org/0000-0002-1775-1148
Glenda Cox est professeure associée au Centre pour l’innovation dans l’apprentissage et l’enseignement (CILT : http://www.cilt.uct.ac.za/) de l’université du Cap, en Afrique du Sud. Elle est titulaire de la chaire UNESCO en éducation ouverte et justice sociale et membre du réseau UNITWIN sur l’éducation ouverte. Elle est vice-présidente du conseil d’administration de l’organisation Open Education Global. Elle fait partie du comité de rédaction de la revue International Journal of Students as Partners.
Université du Cap glenda.cox@uct.ac.za, https://orcid.org/0000-0001-8185-0645
Colin de la Higuera est professeur d’informatique à l’université de Nantes (France). Il a été le président fondateur de la SIF, la Société française d’informatique, et est actuellement trustee de la fondation Knowledge for All. En 2025, l’UNESCO a renouvelé la chaire « Ressources éducatives ouvertes et intelligence artificielle ». Il est également coordinateur de l’UNOE, le réseau Unitwin pour l’éducation ouverte.
Université de Nantes, France cdlh@univ-nantes.fr https://orcid.org/0000-0002-1703-9572
- [Note de la traduction] Nous utilisons dans cet article les termes « Nord global » et « Sud global » parfois non acceptés dans les analyses françaises mais courantes dans celles de l’UNESCO.
︎
- Nous reconnaissons les dilemmes liés à l’ouverture des connaissances traditionnelles en tant que données ouvertes, tels que le droit d’exercer un contrôle sur les connaissances autochtones, qui pourraient être intégrées, cloisonnées et exploitées commercialement par des intérêts privés (comme cela a été le cas dans le domaine de l’open source et du libre accès). Bien que nous soutenions qu’il s’agit là d’une exception plutôt que d’une norme, en faveur de l’« ouverture », cela montre que l’« ouverture » n’est pas neutre et qu’elle soulève de nouveaux défis.
︎
Licence

Cet article est mis à disposition selon les termes de la Licence Creative Commons Attribution Share Alike 4.0 International.
Liberté d’expression, indépendance
Les approches et opinions exprimées sur ce site n’engagent que la Chaire RELIA et ne reflètent pas nécessairement celles de Nantes Université et de l’UNESCO.
Répondre à cet article
Suivre les commentaires :
|
