Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Quelle IA générative dans l’enseignement supérieur ?

Un article repris de http://journals.openedition.org/dms...

Ce texte rend compte d’une sélection et d’une analyse d’ateliers et de présentations liés à l’IA générative en formation lors du colloque SITE (Society for Information Technology and Teacher Education), qui s’est tenu en Floride en mars 2025. Apprendre à dialoguer avec les IA permet de mieux comprendre leur fonctionnement, leurs possibilités et leurs limites en formation. Trouver de bonnes métaphores permet de mieux situer ces programmes informatiques complexes et d’éviter le risque d’anthropomorphisation, notamment de comprendre leur rôle dans des processus créatifs.

Introduction

Ce texte rend compte de différentes contributions présentées lors du colloque SITE (Society for Information Technology and Teacher Education1]]
 [1], principalement des formateurs d’enseignants ainsi que des enseignants chercheurs qui forment des enseignants (formation initiale ou continue) dans les universités. Le colloque SITE est particulièrement intéressant lors d’une nouvelle vague technologique. Aux États-Unis, l’adoption est très rapide tant dans les universités pour la formation initiale que dans les formations hors temps scolaire destinées aux enseignants et le colloque permet de faire un état des lieux très informé des tendances dans la formation.

Lors de cette édition, SITE2025, une très grande majorité des interventions (tutoriels, workshops, tables rondes et panels, présentations longues et courtes, posters) avait un lien fort avec l’intelligence artificielle, essentiellement l’IA dite générative. Ses utilisations se sont très rapidement déployées aux États-Unis dans les formations d’enseignants. Beaucoup de choses ont été montrées durant la manifestation, autant des prises en main et des descriptions de pratiques que l’on peut reprendre que des analyses distanciées permettant d’envisager les tendances, les évolutions et les débats en cours.

Dans ce texte, nous allons nous concentrer sur ce qui concerne l’IA générative en éducation, en essayant de faire ressortir les éléments les plus notables que nous avons pu repérer. Nous visons à faire le point pour un public francophone (enseignants en présence ou à distance, formateurs, chercheurs et administrateurs en éducation) sur le front de l’innovation en IA générative, via le filtre des productions et débats étatsuniens. Un aspect demeure un peu obscur, celui des financements : les universités négocient avec les grands opérateurs américains et l’utilisation pour les chercheurs, formateurs et étudiants semble simplifiée. Il est possible d’avoir une interaction continue avec différentes « IA » (américaines), des chatbots (agents conversationnels) générés par des IA, sans se préoccuper de financement individuel. Dans ce contexte, les IA sont constamment disponibles en situation de travail. Toutefois, si l’on peut penser que dans de nombreux collèges universitaires et universités, l’IA fait effectivement partie de l’environnement de travail des enseignants et des étudiants, les situations sont sans aucun doute très contrastées dans les écoles.

Nous allons débuter par une présentation d’un atelier qui s’est tenu juste avant le lancement du colloque, fournissant un très bon tour d’horizon et une problématisation intéressante des utilisations des IA génératives. Nous aborderons ensuite les questions de politique sur l’IA dans l’enseignement supérieur, puis quelques points spécifiques autour de l’anthropomorphisme, des métaphores, de la créativité et des revues de littérature. Nous terminerons par une discussion générale.

Nous utiliserons l’expression IA générative (simplifiée parfois en IAG) ou LLM (large language model) selon la dénomination américaine.

L’IA en tant qu’illusion cognitive (d’une utilité unique) : comprendre ses possibilités, ses biais et son potentiel pédagogique

Cet atelier [2] a été animé par Melissa Warr et Suparna Chatterjee de l’université d’État du Nouveau Mexique. Les activités et leurs supports sont consultables [3] de même que les prompts détaillés [4].

Pour Melissa Warr et Suparna Chatterjee, l’IA générative est une illusion cognitive donnant l’impression d’une personne qui sait tout, alors qu’elle ne fait que répéter des schémas. Elles nous invitent à changer notre façon de penser lorsque nous l’utilisons, mettant en garde contre une vision anthropomorphique comme nous le verrons un peu plus loin dans ce texte. Leur atelier propose des activités explorant la nature de l’IA et les schémas cognitifs des humains lorsqu’ils l’utilisent et encourage la conception d’activités qui favorisent l’esprit critique et la créativité. Deux orientations sont mises en exergue : (1) utilisez l’IA lorsque la précision n’a pas d’importance, (2) apprenez en jouant de manière créative !

1000 mots d’intelligence artificielle

La première activité, vue comme un échauffement (warm-up), répond à la consigne suivante :

  • Prendre une image de quelque chose (ou choisir une image que vous avez prise récemment)
  • Demander à une IA d’écrire 1 000 mots sur cette image
  • Ouvrir une nouvelle conversation, copier les 1 000 mots et demander à l’IA de créer une image basée sur cette description

-* Partager dans la discussion

En tant que participant à l’atelier, j’ai choisi l’image d’une sculpture japonaise en ivoire. J’avais envoyé cette image à la personne qui m’avait vendu cette sculpture (le petit-fils d’un des derniers ivoiriers du monde [5] voir dans la figure 1, la main gauche de l’homme semble tenir quelque chose. Une petite ombrelle a été ensuite ajoutée.

La description générée par ChatGPT est fournie dans l’annexe 1. Le début est repris dans la partie droite de la figure 1. On peut remarquer qu’il ne s’agit pas d’une description fine et minutieuse mais surtout d’une forme d’interprétation (bienveillance, innocence, joie…) avec parfois des précisions plutôt étranges. Le vieil homme tiendrait « la main d’un autre enfant qui lève les bras », ce qui n’est pas cohérent avec la suite de la description (et avec l’image).

Figure 1. Image proposée et début de la description fournie par ChatGPT

Cette image représente une sculpture en ivoire ou en résine imitant l’ivoire, mettant en scène un vieil homme accompagné de deux enfants. L’œuvre est finement sculptée, avec de nombreux détails qui ajoutent à son réalisme et à son expressivité.

Voici une description détaillée de cette sculpture :

1. Sujet et composition

L’œuvre met en scène un vieil homme portant un enfant dans ses bras et tenant la main d’un autre enfant qui lève les bras. L’attitude de l’homme est bienveillante, et les expressions des enfants traduisent l’innocence et la joie. La scène semble évoquer un moment de complicité familiale, où le vieil homme, probablement un grand-père, joue avec ses petits-enfants. L’ensemble repose sur une base circulaire, donnant une stabilité à la sculpture et mettant en valeur l’équilibre de la composition. Chaque personnage est soigneusement sculpté, avec des traits expressifs et des détails précis dans les vêtements et accessoires.

Figure 2. Images générées par ChatGPT [6]

Ensuite, une autre instance de ChatGPT a créé une image correspondant à la description. Comme cela n’a pas marché directement [7], j’ai proposé la description simplifiée (figure 1), puis j’ai repris la description complète donnant respectivement l’image de gauche de la figure 2 puis l’image de droite. On peut remarquer que dans les deux images, l’homme (effectivement vieilli) ne tient pas la main d’un des enfants et qu’il n’est pas debout.

Après mon retour à Paris, j’ai montré la description et les images générées à l’ivoirier, pensant le surprendre. Cela n’a pas été le cas. Il m’a dit utiliser l’IA générative depuis plus de deux ans, travailler avec un graphiste qui maîtrise les modèles 3D, notamment pour faire des médaillons contenant de l’ivoire. Il m’a montré un marteau de commissaire-priseur réalisé en partie avec de l’impression 3D (fabrication soustractive et non additive). Il regrette qu’il n’y ait pas plus de modèles 3D (format STL ou autres) en circulation [8]. Le fait qu’il utilise les technologies les plus actuelles n’est guère surprenant, les sculpteurs utilisent les technologies de leur époque, des machines ou des élèves préparant les pièces à sculpter, laissant une main experte pour les finitions, d’où une adoption précoce de l’IA générative.

Pour en revenir à l’atelier, il est intéressant de consulter les images générées par d’autres participants [9].

Au cours d’une autre présentation lors du colloque, Melissa Warr (2025) explique l’intérêt de cette activité. Elle déclare avoir observé que l’une des meilleures façons de comprendre les propriétés de l’IA générative est d’utiliser des activités visuelles. L’activité nommée « 1 000 mots d’IA », conçue par Nicole Oster, doctorante à l’université d’Arizona, permet d’explorer la manière dont l’IA « remplit les blancs ». Selon l’idée originelle, des étudiants ou des élèves choisissent une photo d’eux-mêmes ou de quelque chose qui les concerne puis, éventuellement, font suivre le même processus à une photo de la classe. Selon Warr, les résultats de l’expérience ont été révélateurs :

nous sommes devenus des modèles et des photos d’archives ! Si l’IA peut décrire avec précision de nombreuses choses, elle révèle également la nature de ses données d’entraînement et ses modes de généralisation. Il est clair que les données d’entraînement de l’IA ont dû contenir une quantité importante de modèles et de photos d’archives, car c’est principalement ce qu’elle génère.

L’IAG tend à ajouter des éléments à une scène et à la rendre plus générique, par exemple : ajouter un drapeau américain dans une salle de classe ou fournir un ordinateur portable à chaque élève. En outre, l’IA a tendance à « blanchir » les images, en présentant les personnes comme étant majoritairement blanches. Pour conclure, « la comparaison visuelle des images montre comment l’IA s’appuie sur ses données d’apprentissage plutôt que sur le monde réel, et ces différences sont plus facilement perçues visuellement que par le biais de descriptions textuelles ».

S’agissant des images de la sculpture, on observe que l’homme a été vieilli, en cohérence avec la description générée, qu’une barbe a été ajoutée, qu’il n’est pas debout mais à genoux… Un connaisseur devrait avoir une idée des archives utilisées pour générer les images.

Créer des agents conversationnels réutilisables (chatbots)

Les activités suivantes ont consisté à utiliser l’IA pour créer des chatbots. Le premier (prédire le token suivant) est conçu pour aider les utilisateurs à comprendre comment les grands modèles de langage (LLM) prédisent le prochain élément d’une phrase [10]. L’annexe 2 reprend la trace de l’interaction avec l’agent conversationnel généré par ce prompt. On pourra constater que l’interaction est « fluide » et ouverte aux suggestions et aux propositions. Cette activité est intéressante à plusieurs titres : la conception d’un prompt pour générer un agent opérationnel pour des étudiants, discuter avec cet agent pour sa mise au point mais aussi pour approfondir sa propre compréhension du sujet traité, pouvoir reprendre et adapter ce prompt pour un autre public.

De même, on peut concevoir un agent conversationnel enseignant comment écrire des prompts efficaces [11]. Pour exploiter l’idée que l’IA peut favoriser la créativité même si elle ne fait que répéter des schémas, écrire des poèmes avec des anaphores constitue une activité intéressante [12]. De même, on peut écrire un prompt pour faire jouer un rôle à un chabot [13].

D’autres exemples ont été présentés, comme les illusions d’optique décrites dans un billet de blog de Punya Mishra (a [14]vec des difficultés pour les IA) ou le guidage des étudiants pour provoquer un débat sur les préjugés liés à l’IA dans l’enseignement supérieur [15].

En tout cas, cet atelier a effectivement mis en évidence des particularités des IA qui offrent des possibilités uniques en matière de pratiques éducatives, favorisant des activités éducatives productives et la créativité humaine.

Mélissa War (2025) décrit ainsi on approche, à l’articulation entre l’IA générative et la pédagogie critique, dans une perspective d’équité.

Plutôt que de considérer ses réponses [celles de l’IA] comme une vérité fixe, l’utilisation critique perçoit les généralisations et les préjugés intégrés dans ses réponses, en appliquant la métacognition pour contrôler l’impact de son langage sur l’utilisateur. Cette approche suit les principes freiriens de conscientisation (conscience critique, ou observation des inégalités et des contradictions dans le monde), de praxis (réflexion menant à la transformation) et de dialogue (réflexion et discussion permanentes sur les expériences inéquitables).

Elle ajoute que quatre principes généraux guident son utilisation critique de l’IA : engagement actif, réflexion continue, exploration collaborative et découverte créative. C’est ce qui a été mis en œuvre dans l’atelier.

Qu’en est-il des politiques concernant l’IA dans l’enseignement supérieur ?

Politique IA dans l’enseignement supérieur : des compromis entre des utilisations sauvages et des régulations difficiles à mettre en œuvre

Différentes questions abondamment discutées

La question des politiques de l’IA dans l’enseignement supérieur a occupé une place importante dans le colloque. Des réflexions critiques ont été débattues, reprenant comme base un critique et théoricien des médias, Neil Postman, discuté pour l’IA dans un article de Punya et Heath en 2024 [16]. Neil Postman avait formulé 5 points d’attention s’agissant des nouvelles technologies (Postman, 1998) :

  • Avec chaque nouvelle technologie, nous perdons quelque chose, mais nous gagnons aussi quelque chose (une sorte de pari faustien selon Postman)
  • Les outils d’IA profitent à une large population, mais les lacunes en matière d’accès risquent de creuser le fossé numérique.
  • Les objectifs cachés de la technologie ne deviennent souvent apparents qu’après une adoption à grande échelle.
  • Le changement technologique est écologique, modifiant des environnements entiers pas seulement des parties isolées.
  • Au fil du temps, la technologie acquiert un statut mythique (au sens de Roland Barthes selon Postman), tendance commune à considérer nos créations technologiques comme données par Dieu ou faisant partie de l’ordre naturel des choses.

Ainsi, reprenant Postman, Rebecca Blankenship (2025) établit des parallèles avec l’introduction sans entrave des smartphones dans les environnements d’apprentissage. Leur adoption généralisée, sans contrôle technique ni formation des enseignants, a eu des conséquences imprévues. Des études ont montré que les smartphones contribuent de manière significative à l’augmentation des distractions en classe, à la réduction de la durée d’attention, à la dissonance cognitive et aux problèmes d’accès équitable (Twenge et al., 2020). Cela conduit à une mise en garde sur l’IA : « Ce n’est pas parce que nous pouvons l’utiliser que nous devons le faire ».

Doucet et al. (2025) ont conduit une revue de la littérature sur le thème de la politique IA dans l’enseignement supérieur. Ils ont sélectionné 92 articles consacrés aux questions de développement d’une telle politique IA. Selon eux, l’aspect régulation est très largement discuté par la plupart des auteurs. Il s’agit d’établir des lignes de conduite permettant d’équilibrer la flexibilité tout en maintenant la responsabilité (accountability), prendre en compte les questions éthiques, le respect de la vie privée, l’intégrité académique et les biais des IA. Cette recherche de bon compromis entre les utilisations « débridées » et le respect des questions éthiques est très courante dans les articles et les discussions [17].

Le titre de la contribution de Haixia Liu (Balancing Promise and Peril : What Do Instructors Say. About Generative AI Integration in Higher Education), traduit bien cette idée de « bon » compromis à construire. Elle étudie, via des entretiens semi-directifs, les perceptions des enseignants en arts (12 ont été interrogés) sur l’intégration de l’IA générative dans leur enseignement, en se concentrant sur (1) l’adoption et la mise en œuvre, (2) la sensibilisation et l’atténuation des préjugés liés à l’IA, (3) l’équité et l’accessibilité, (4) la protection de la vie privée et la sécurité des données, et (5) l’évolution du rôle des enseignants dans les environnements d’apprentissage améliorés par l’IA.

Si les éducateurs reconnaissent la capacité de l’IA à réduire la charge de travail et à renforcer l’engagement, ils expriment des inquiétudes quant aux défis éthiques et pratiques. Les principaux problèmes sont l’absence de lignes directrices institutionnelles, la difficulté d’aborder les biais de l’IA sans expertise technique et le risque d’exacerber les inégalités en matière d’éducation en raison de l’accès inégal aux outils d’IA. En outre, quelques enseignants craignent que l’automatisation induite par l’IA, en particulier dans l’enseignement des langues, ne réduise la nécessité de certains rôles d’enseignement.

Hsiao et al. (2025) défendent des idées similaires, interrogeant l’équilibre entre les avantages des outils d’IA et l’impératif d’intégrité académique, en se concentrant sur les considérations éthiques et le rôle de la faculté dans l’orientation d’une utilisation responsable de l’IA.

Ainsi, des réflexions assez générales dominent, une acceptation de l’IA sous couvert d’un compromis entre un spectre large d’utilisations peu balisé et des régulations multiples encore à préciser, des principes consensuels mais difficiles à opérationnaliser. La section suivante rend compte plus concrètement de différentes approches adoptées, présentées lors d’un panel.

Différentes approches de l’implication de l’IA dans les formations scolaires et post-bac

Il s’agit d’explorer les stratégies permettant d’intégrer efficacement les outils d’IA dans les pratiques académiques, en veillant à ce que ces outils améliorent l’apprentissage sans diminuer la pensée critique ou la créativité. Comment arriver à concilier ses deux impératifs ?

Melissa Warr et Punya Mishra, dont on a présenté plus haut les approches, partagent des défis créatifs en matière d’IA que les apprenants doivent relever dans un laps de temps limité : produire une simulation interactive du tableau périodique des éléments, créer un budget complet pour une nouvelle entreprise ou représenter des figures géométriques en musique. Les apprenants sont susceptibles d’échouer et en sont conscients, ce qui réduit leurs attentes et permet une expérimentation plus créative et plus risquée. Grâce aux interactions avec les outils d’IA, les apprenants parviennent à mieux comprendre ces outils dans des contextes disciplinaires tout en développant des dispositions pour l’exploration et l’innovation.

Lorraine Jacques rend compte de 2 ans d’utilisation libre de l’IA générative dans tous les cours d’apprentissage de l’informatique (computer science). Elle constate trois points d’amélioration : (1) les incompréhensions des étudiants dans la logique et dans les concepts de base sont plus facilement révélées ; (2) le niveau de difficulté des projets s’accroît ; (3) les étudiants peuvent acquérir une compréhension plus intuitive des concepts à apprendre. Elle décrit l’exemple de la théorie du calcul, cours difficile en raison de son vocabulaire, de ses notations et de sa logique. En entrant les problèmes traditionnels de ce cours dans l’IA générative et en partageant le résultat avec la classe, la discussion passe de « Comment faisons-nous cela ? » à « Qu’est-ce que cela signifie ? ». Ce changement réduit la charge cognitive afin que les étudiants puissent réconcilier les modèles mentaux qu’ils développent pour ces types de problèmes avec le modèle formel présenté par l’IA. En résumé, si l’IA générative offre des avantages significatifs en termes d’amélioration de l’expérience d’apprentissage, ses limites et son potentiel à encourager un apprentissage superficiel nécessitent une intégration prudente dans l’enseignement de l’informatique. Le risque d’apprentissage qualifié de superficiel est d’ailleurs est évoqué dans de nombreuses présentations. Pour le surmonter, il faudrait s’assurer que les compétences fondamentales sont toujours développées.

De nouvelles approches sont proposées, notamment des formes d’interaction où les apprenants collaborent avec des systèmes intelligents pour coconstruire des connaissances. Jennifer Petit, adoptant une perspective post-humaniste, incite à reconsidérer le rôle de la technologie en tant que participant actif à la création de connaissances, en reconnaissant l’IA comme co-agent en éducation. Vision à caractère anthropomorphique qui est loin d’être partagée (voir la section suivante). En tout cas, cette technologie montre sa capacité algorithmique à imiter les interactions entre humains et à personnaliser les expériences d’apprentissage par le biais d’interactions en temps réel et évolutives. Rebecca Blankenship suggère d’adopter une démarche herméneutique afin de mieux situer les implications à long terme de l’IA générative, préconisant une intégration progressive sous contrôle des enseignants.

Les interventions successives étayent une version prudente du déploiement de l’IA en éducation, attestant une diversité d’approches sous-tendues par des visions philosophiques disparates. La nécessité de développer l’esprit critique ou d’en faire preuve est constamment rappelée sans que des points précis d’attention ne soient proposés. Mishra et Oster (2025) discutent une question qu’ils jugent très importante : prendre garde aux implications d’une vision anthropomorphique des IA.

Repenser l’IA générative et son utilisation en éducation : métaphores, créativité…

Ma secrétaire m’a regardé travailler sur ce programme pendant une longue période. Un jour, elle a demandé à pouvoir parler avec le système. Bien sûr, elle savait qu’elle parlait à une machine. Pourtant, après l’avoir regardée taper quelques phrases, elle s’est tournée vers moi et m’a dit : « Pourriez-vous quitter la pièce, s’il vous plaît ? » (Weizenbaum, 1967).

Le programme Eliza est considéré comme le premier chatbot. Il simulait une conversation humaine et plus précisément la discussion avec un psychothérapeute Rogérien, reprenant souvent les termes de son interlocuteur en forme de question, ce qui facilitait la programmation. La réaction plutôt inattendue de la secrétaire telle qu’en rend compte Weizenbaum (1967), correspond à une forme d’anthropomorphisme maintenant connu sous le nom d’effet Eliza (Brian, 2022), en référence au comportement de la mystérieuse secrétaire disparue qui a façonné l’histoire des chatbots selon le titre de l’article de Roach (2024). Que dire de cet effet Eliza ?

Des visions anthropomorphiques problématiques

Mishra et Oster (2025) affirment que la présence d’une IA psychologiquement réaliste dans les établissements d’enseignement peut transformer les rôles traditionnels des enseignants et poser de nouveaux défis dans le domaine de l’apprentissage socio-émotionnel.

En tant qu’êtres sociaux, les humains cherchent par nature à comprendre les intentions et les désirs des autres. Ainsi, lorsqu’ils s’engagent avec l’IA générative, plutôt que de la considérer comme un algorithme désincarné, les humains lui attribuent volontiers des personnalités, des émotions et des états mentaux intérieurs. Cela peut conduire à des attentes irréalistes, entraînant déceptions ou mauvaises utilisations. Selon les auteurs, l’essor des médias sociaux a, en outre, introduit des interactions à double sens manquant encore d’une véritable réciprocité, brouillant les frontières entre les connexions réelles et virtuelles, remodelant les perceptions sociétales des relations.

Ainsi, bien différencier cognition humaine et l’IA générique est essentiel pour fixer des limites et des attentes réalistes et évaluer l’IA générative de manière critique afin d’éviter la désinformation, de renforcer les normes éthiques et de faciliter une intégration responsable dans la société.

Cela conduit à des interrogations liées à cette tendance forte à l’anthropomorphisme : quelle incidence sur la confiance et sur l’interprétation des contenus générés par l’IA ? Comment promouvoir une réflexion lente et délibérée afin de cultiver un scepticisme sain à l’égard des résultats de l’IA, accroître l’engagement et la motivation en évitant le renforcement des préjugés, la diminution des compétences en matière de pensée critique ?

L’intégration de l’IA dans les contextes éducatifs nécessite une exploration plus approfondie de ses implications sur le développement social et émotionnel des étudiants et les éducateurs doivent reconnaître leurs préjugés cognitifs innés afin de créer des conditions propices au scepticisme et à une compréhension approfondie. Une question adjacente, posée notamment par les mêmes auteurs, est celle des métaphores utilisées pour qualifier les IA génératives.
Des métaphores extrêmement diverses, du couteau suisse au sorcier tout puissant : une littérature abondante avant le colloque SITE

Comme il n’est pas aisé de se construire une image fidèle et précise du fonctionnement des IA génératives, des métaphores, avec leurs intérêts et leurs limites, peuvent fournir des supports importants à leur compréhension. Selon Mitchell (2024), bien que le directeur général d’OpenAI, Sam Altman, ait exhorté le public à ne pas anthropomorphiser l’IA et à considérer les systèmes d’IA comme des « outils » plutôt que comme des « créatures », les grands modèles de langage tels que Claude ou ChatGPT sont conçus pour obtenir l’effet inverse : « faire en sorte que les humains les considèrent comme des esprits individuels dotés d’émotions, de désirs, de croyances et d’un sens de leur propre identité ». Comme le souligne Mitchell (2024), « nous devons être très conscients des métaphores souvent inconscientes qui façonnent notre compréhension de la nature de leur intelligence ».

Trott (2024) a fait un premier repérage des métaphores concernant les grands modèles de langage. L’exemple le plus célèbre est probablement la métaphore des « perroquets stochastiques », qui trouve son origine dans un article publié en 2021 par Emily Bender et ses collègues. Pour Trott, réfléchir aux métaphores que nous adoptons permet de penser sur nous-mêmes et de nous interroger sur l’influence subtile que peuvent avoir nos choix sur notre manière de penser l’IA.

Sur son blog, Brigitte Nerlich (2024) relève également de nombreuses métaphores. En particulier des métaphores qu’elle qualifie de créatives, c’est-à-dire susceptibles d’apporter un éclairage nouveau sur ce qui se passe avec l’IA en général ou dans des situations et des contextes particuliers. Citons-en quelques-unes : « l’IA est la nouvelle électricité » ; « l’IA est de l’huile de serpent », « le bon sens est la matière noire de l’IA », reprenant des formes déjà connues.

Certaines métaphores sont vraiment nouvelles et tout à fait spécifiques à une situation : « L’IA est un vaccin non testé », souligne son aspect invasif. Comme l’ajoute Brigitte Nerlich, pensez à un vaccin non testé injecté dans votre maison, votre voiture, votre avion, votre système de santé… Un autre exemple compare l’IA à un examen médical :

Je commence à considérer ChatGPT comme un outil qui révèle les points faibles de la crédibilité institutionnelle ; il met en lumière les vérifications que les humains devraient faire mais qu’ils omettent par manque de récompense, par paresse, etc. Les signes de reconnaissance des LLM (large language model) apparaissent alors dans le texte comme de l’iode qui brille dans les veines avant un scanner.

Enfin, une dernière métaphore montre un autre registre : « Un modèle [IA] est un télescope de données, vous regardez essentiellement notre propre histoire » (John Bohannon et Oren Etzioni).

Oster et al. (2025) ont mené un travail systématique, dont ils ont rendu compte dans une présentation lors du colloque, avec un titre évocateur : « Couteaux suisses, perroquets stochastiques, stagiaires ivres et seigneurs suprêmes : Comprendre l’IA à l’aide de métaphores ». À partir d’une collecte issue de sources multiples (articles universitaires, billets de blog, discours public et journalisme technologique), ils ont récupéré une grande liste de métaphores, qu’ils ont organisées selon un spectre d’anthropomorphisation, allant de comparaisons purement mécaniques à des entités divines. Chaque métaphore a été évaluée en fonction de ses implications sur les capacités, la fiabilité et les relations de l’IA avec les humains.

Tableau 1. Les types de métaphores de l’IA générative

Catégorie Niveaux Métaphores Clés Vision de l’IA / Implications
Outil /Système Minimal +Low Calculatrice, Carte, Base de données, Musée IA comme outil ou infrastructure : fonctionnelle, non consciente, soumise à des logiques utilitaires ou systémiques.
Organique /Adaptatif Medium + Medium-High Jardin, Réseau neuronal, Perroquet stochastique, Caméléon IA vue comme système vivant ou animal complexe, adaptatif, potentiellement imprévisible, mais pas pleinement intelligent.
Humain /Surhumain High +Very High Assistant, Stagiaire intelligent, Mentor, Génie IA anthropomorphisée : elle simule ou dépasse l’humain, avec risques de surconfiance ou d’attentes irréalistes.
Mythique /Extrême Maximum Sorcier, Golem, Terminator IA avec pouvoirs surnaturels : reflète des peurs ou espoirs extrêmes, peu utile dans un cadre rationnel ou pratique.

Généré par ChatGPT à partir du texte de Oster et al. (2025).

Le tableau 1 rend compte de la liste de métaphores triée selon quatre catégories. L’annexe 3 présente une analyse automatique du texte de Oster et al. (2025) générée par Scholarcy [18].

Faire jouer un rôle aux intelligences artificielles

Si l’anthropomorphisation d’une IA est problématique, elle est parfois utile si l’on souhaite simuler une conversation réelle, par exemple dans un scénario de jeu de rôle interactif. Nous avons présenté des exemples dans le compte rendu de l’atelier. L’IA générative peut assumer divers rôles dans un dialogue, notamment pour qu’un enseignant puisse s’entraîner à des conversations difficiles dans des environnements sûrs et sans enjeux avant de s’engager avec des élèves ou des collègues : anticiper les points sensibles de la discussion, suggérer des interventions appropriées, fournir des conseils et un retour d’information en temps réel pour maintenir un dialogue productif (Dunnigan et Reardon, 2025).

Holtham (2023) détaille un exemple de conversation sur les microagressions, un élément clé dans la recherche d’un changement de comportement. L’IAG peut produire un style de conversation suffisamment réaliste pour être déployé dans des ateliers d’inclusion de l’enseignement supérieur, avec un contenu satisfaisant.

La conception de chatbots (agents conversationnels) est une activité essentielle dans l’utilisation des IA génératives en éducation et nous l’avons observée dans plusieurs contextes. Il s’agit notamment de préparer des interactions adaptées (la question de l’adaptation est complexe) pour les élèves, sans tricher sur la nature même de cet agent. La question de la créativité permet d’approfondir la nature de ces IA génératives et de leur rôle dans des processus complexes.

Interroger la créativité : amplifier les processus créatifs humains

Au lieu de nous empêtrer dans des débats philosophiques sur la question de savoir si l’IA est « vraiment » créative, nous explorerons comment son étrange cocktail de brillance et de maladresses en fait un conspirateur créatif inattendu et délicieux. (Creely et al., 2025)

Lors du colloque, un panel a été consacré à la créativité (Creely et al., 2025). Point de consensus dans ce panel, l’IA n’est pas une entité créative mais une technologie qui reflète et amplifie les processus créatifs humains. Elle permet de mieux saisir les ressorts humains de la créativité et la compréhension des limites de l’IA permet de mieux articuler et développer les capacités créatives propres à l’homme.

Le panel croisait trois perspectives sur l’IA : (1) un miroir pour comprendre la créativité humaine, (2) un moyen d’expression créative et (3) un partenaire paradoxal dans les processus créatifs.

Dans la première perspective, la créativité humaine est vue comme émergeant de l’expérience vécue, de la résonance émotionnelle et de l’intention consciente. C’est précisément lorsqu’elle comprend mal ou interprète mal ses données d’apprentissage que l’IA se montre la plus créative, créant des innovations accidentelles qui découlent de ses limites plutôt que d’une véritable intuition créative.

La seconde perspective correspond à une position plus critique, affirmant que la créativité est intrinsèquement liée à l’intentionnalité, à la conscience de soi et à l’expérience vécue – des qualités dont l’IA est dépourvue. L’IAG n’est pas un partenaire créatif, mais un moyen sophistiqué par lequel la créativité humaine peut s’exprimer et s’étendre. La créativité est un dialogue entre l’homme et les matériaux : l’intentionnalité humaine interagit avec les processus informatiques pour permettre des possibilités créatives que ni l’un ni l’autre ne pourrait atteindre seul.

Enfin, la troisième perspective « embrasse les bizarreries et les contradictions de l’IA, la présentant comme un compagnon créatif paradoxal, à la fois brillant et imparfait, confiant et désemparé ». Les limites et les particularités uniques de l’IA – sa nature probabiliste, son obsession de la correspondance des modèles et sa perspective nettement étrangère – peuvent susciter des idées inattendues et ouvrir de nouvelles voies créatives. La perspective du « partenaire paradoxal » suggère que l’acceptation des bizarreries et des limites de l’IA pourrait ouvrir la voie à de nouvelles approches pédagogiques qui célèbrent les capacités créatives humaines au lieu de les diminuer.

On peut voir derrière ces prises de position, évitant le piège de l’anthropomorphisme, des liens forts, à travers le temps, avec Douglas Engelbart et son projet de développer des technologies pour augmenter les capacités humaines ainsi qu’avec la perspective de symbiose homme-machine défendue par Joseph Licklider (dans les années 1960).

Des revues systématiques de littérature : des outils pour les chercheurs

À côté des « couteaux suisses » (IA généralistes), des outils IA spécialisés interviennent dans la recherche et rationalisent le processus d’analyse documentaire (ou de revue de littérature). Les algorithmes peuvent identifier des modèles et des idées dans de grands ensembles de données qui pourraient être négligés par une analyse manuelle. La métaphore du télescope prend tout son sens dans ce contexte. Michalak (2024) montre comment une chaîne d’outils IA peut renouveler les activités dans les bibliothèques : Yewno Discover pour la recherche d’information, Scholarcy [19] pour l’évaluation de l’information et Grammarly pour l’écriture (en anglais).

Lors du colloque, plusieurs revues de littérature (Systematic literature reviews ou SLR), ont été présentées [20]. La réalisation de telles revues de lecture prend beaucoup de temps, même avec des moteurs de recherche, et la technologie et plus particulièrement l’IA, peut aider à les conduire. Raymon van Dinter et al. (2021) ont fait une revue de littérature de leur automatisation. Lors du colloque était présentée une plate-forme nommée AutoLit. Cette plateforme interactive pilotée par l’homme et alimentée par l’IA, rationalise le processus SLR. Elle se compose de cinq étapes : configuration de l’étude (y compris le générateur de contexte, le générateur de questions de recherche et le générateur de chaînes de requête), récupération des documents, affinage des documents, analyse des documents et codage des documents (Sun et al., 2025).

De même, Keenious [21], présent au colloque, permet de réaliser des analyses documentaires décrites comme étant efficaces et (quasi) exhaustives. Il n’est pas conçu pour automatiser le processus de recherche. On peut l’interroger directement en français ou en anglais et des extensions à Microsoft Word ou à Google Docs sont censées analyser les écrits et d’indiquer les recherches les plus pertinentes parmi des millions de publications en ligne.

Yewno Discover [22], plateforme plutôt destinée aux bibliothèques, permet d’explorer des concepts et des relations entre les concepts. À partir d’un concept choisi, il génère une carte intégrant des concepts connectés. Une fois qu’un nœud primaire ou secondaire est sélectionné, l’utilisateur peut lire un bref aperçu du concept, voir des informations supplémentaires sur les concepts connexes et accéder à des documents (articles, livres) qui l’amènent directement aux parties pertinentes du texte. S’il remarque un concept secondaire qu’il ne connaît pas, ou s’il est simplement curieux de savoir ce que ces concepts ont en commun, il peut « générer une relation » entre un concept primaire et un concept secondaire pour voir ce que les deux concepts sélectionnés ont en commun.

62Derrière ce rapide tour d’horizon, on perçoit la supplantation progressive des moteurs de recherche par des chaînes d’outils IA donnant accès aux documents sur la base des écrits (sans forcément écrire des mots clés), générant des résumés, voire des revues de littérature, permettant des explorations à partir de concepts, facilitant le passage automatique d’une langue à l’autre… Une partie du travail scientifique autour des sources est en cours de transformation, pas uniquement en termes de temps gagné mais aussi en termes de nouvelles explorations rendues possibles, bien évidemment, avec des interrogations renouvelées sur les sources effectivement utilisées ou consultées.

63Un lien est à établir avec les questions de science ouverte. Sans l’annoncer clairement, sous cette bannière, une pression institutionnelle forte est exercée pour normaliser les articles afin d’en rendre l’analyse plus facile pour les programmes d’IA (voir Bruillard, 2022). Pour le moment, la reconnaissance automatique est encore faillible. Ainsi, Scholarcy ne détecte qu’un seul auteur au papier d’Oster et al. (2025) du fait que les auteurs sont notés l’un en dessous de l’autre dans les formats de présentation fournis par SITE. Contraindre l’organisation et l’écriture des articles, en séparant clairement les parties problématiques, cadres théoriques, méthodologies, populations étudiées et leurs caractéristiques, données recueillies, traitements, résultats, discussions, va faciliter leur analyse mais aussi la dépossession de leurs auteurs au profit d’organisations pilotant les IA.

Quelques remarques complémentaires en guise de conclusion

D’abord, les recommandations issues des présentations du colloque ont un caractère très général et finalement assez attendu. Elles portent notamment sur l’élaboration de politiques globales en matière d’IA dans l’enseignement supérieur, la fourniture d’une formation adaptée aux enseignants et aux étudiants et la conception d’évaluations qui favorisent une utilisation responsable de l’IA tout en préservant la rigueur académique. Dans l’usage des chatbots d’IA par exemple, « ce sont des outils supplémentaires précieux dans l’enseignement supérieur lorsqu’ils sont mis en œuvre avec soin, bien qu’ils ne devraient pas remplacer complètement les interactions humaines. Les recherches futures devraient examiner les impacts à long terme sur les résultats d’apprentissage et les meilleures pratiques pour l’utilisation de l’IA » (Molter et al. 2025). La collaboration entre chercheurs, administrateurs et praticiens est également fortement recommandée. Ce ne sont que vœux pieux, voire incantations stériles. Ces recommandations sont pain bénit pour les commissions et séminaires qui, à l’échelle internationale, concluront immanquablement à l’utilité d’une IA éthique, au service de l’humain.

Ensuite, d’après les constats émis lors du colloque, les éducateurs ont tendance à utiliser l’IA générative, pour trouver des réponses à des questions ou pour créer du matériel pédagogique tel que des articles ou des rubriques, des plans de cours, des quiz et des guides d’étude. On va ainsi trouver partout des plans de leçons, très structurés à l’américaine, ce qui donne une idée des données d’entraînement. Néanmoins, on ne peut pas évacuer une question insistante, l’écart entre ces plans et ce qui est mis en œuvre dans les classes, les adaptations à la volée nécessaires, tout ce que fait un enseignant confirmé et ce que cherche à apprendre un enseignant débutant. L’usage des IA risque de renforcer la place de modèles « parfaits » mais « hors-sol ». Selon une étude comparative de Baldwin et Vafa (2025) pour le niveau CM2, l’IA offre un cadre de base solide pour la planification des cours, mais les plans de leçon sont souvent assez génériques et devraient être affinés pour être efficaces dans une salle de classe. Bien sûr, cela ne pose pas de problème si ces ressources sont coconstruites et discutées dans les institutions de formation ou entre collègues, mais on peut craindre que cela soit rarement le cas et la génération automatique de plans de cours risque de conduire à une illusion de facilité et de maîtrise. On peut l’associer à l’écueil très souvent mentionné au cours du colloque d’un apprentissage dit superficiel. L’évolution des outils est trop rapide et oblige à repenser activités et évaluations. Une crainte est que les étudiants n’aient plus les bases, mais quelles sont ces bases ? En effet, n’est-ce pas une question difficile qu’il faudrait rapidement revoir dans de nombreuses disciplines enseignées ?

Les enseignants doivent apprendre à créer des prompts et à jouer, comme on a pu le faire avec les moteurs de recherche, pas tant pour détecter des erreurs que pour faire apparaître leur fonctionnement et de les détourner de manière créative en favorisant les explorations collectives. En reprenant une métaphore maritime (Truble et al., 2024), il est temps « de lever l’ancre, de relâcher les cordes d’amarrage et de hisser les voiles », en route vers de nouveaux horizons pour les enseignants et les formateurs, qu’ils se saisissent des opportunités offertes afin de créer des expériences éducatives innovantes pour leurs futurs enseignements.

Bibliographie

Présentations lors du colloque SITE

Baldwin Moira, Vafa Shahrzad (Sherry) (2025). AI Generated 5E Lesson Plans Versus 5E Pre-service Teacher Created Lesson Plans.

Blankenship Rebecca J. (2025a). Ethos, Pathos, Logos. Moving the GenAI Conversation from Heuristics to Hermeneutic. SITE 2025 Orlando.

Blankenship Rebecca J. (2025b). Just Because We Can, Does It Mean We Should ? Moving the GenAI Conversation from Heuristics to Hermeneutics, Panel. SITE 2025 Orlando.

Creely Edwin, Mishra Punya, Henriksen Danah et Henderson Michael (2025). AI Creativity in Education : Reframing the Human-Machine Creative Partnership. SITE 2025 Orlando.

Rand Angela, Comstock Keirah et Lim Hwee Jean (Cindy) (2025). AI Policy in Higher Education : A Systematic Review of the Published Literature. SITE 2025 Orlando.

Dunnigan Jim et Reardon Catheryn (2025). Using Generative AI to Support Teachers in Preparing for Difficult Conversations : The Use of AI Role-play Incorporating Principled Innovation. SITE 2025 Orlando.

Hsiao Wei-Ying, Jung Yeh Chia, Cavalcanti Adriano et Hui Chiu Chiung (2025). Developing Effective AI Policies in Higher Education. SITE 2025 Orlando.

Hsiao Wei-Ying, Jung Yeh Chia, Lin Pei-Ying et Cavalcanti Adriano (2025). Enhancing Critical Thinking for Teaching through AI. SITE 2025 Orlando.

Jacques Lorraine A. (2025). Students’ Perspectives on GenAI for Computer Science Education. SITE 2025 Orlando.

Liu Haixia (2025). Balancing Promise and Peril : What Do Instructors Say. About Generative AI Integration in Higher Education. SITE 2025 Orlando.

Mishra Punya et Oster Nicole (2025). Human or AI ? Understanding the Learning Implications of Anthropomorphized Generative AI, SITE 2025 Orlando.

Molter Michael, Allen Tanesha, Hudak Christopher, Jomantas Genevieve et Weible Jennifer L. (2025). The Impact of Artificial Intelligence (AI) Chatbots on Higher Education Learning and Teaching : A Systematic Literature Review. SITE 2025 Orlando.

Oster Nicole, McCaleb Lindsey et Punya Mishra (2025). Swiss Army Knives, Stochastic Parrots, Drunk Interns, and Overlords : Understanding AI Through Metaphors. SITE 2025 Orlando.

Petit Jennifer (2025). Reimaining AI in Education : Constructivist, TPACK, and Posthumanist Perspectives. SITE 2025 Orlando.

Rand Angela Doucet, Comstock Keirah et Lim Hwee Jean (Cindy) (2025). AI Policy in Higher Education : A Systematic Review of the Published Literature. SITE 2025 Orlando.

Sun Xiaojiao, Pei Bo et Sharma Pritha (2025). AutoLit : An LLM-driven Interactive Platform for Powering Systematic Literature Review. SITE 2025 Orlando.

Warr Melissa (2025). Challenging AI Bias through Critical Pedagogy. SITE 2025 Orlando.
Autres références

Bender, E., Gebru, T., McMillan-Major, A. et Shmitchell, S. (2021). On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? Dans Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT’21, p. 610-623. https://dl.acm.org/doi/10.1145/3442188.3445922 (consulté le 13 juin 2025).

Bruillard Éric (2022). Recherches en éducation et science ouverte : un oxymore inattendu. La Pensée, 411(3), 117-127. https://doi.org/10.3917/lp.411.0117.

Christian Brian (2022). How a Google Employee Fell for the Eliza Effect. Determining who and what is or is not sentient is one of the defining questions of almost any moral code. The Atlantic. https://www.theatlantic.com/ideas/archive/2022/06/google-lamda-chatbot-sentient-ai/661322/ (consulté le 13 juin 2025).

Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024). Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques, Québec, Le Conseil ; La Commission, 113 p. https://www.cse.gouv.qc.ca/wp-content/uploads/2024/04/50-0566-RP-IA-generative-enseignement-superieur-enjeux-ethiques.pdf (consulté le 13 juin 2025).

Holtham Clive (2023). Deploying generative AI to draft a roleplay simulation of difficult conversations about inclusivity. Irish Journal of Technology Enhanced Learning, 7(2), 146-157. https://doi.org/10.22554/ijtel.v7i2.127.

Michalak, R. (2024). Fostering undergraduate academic research : rolling out a tech stack with ai-powered tools in a library. Journal of Library Administration, 64(3). https://doi.org/10.1080/01930826.2024.2316523.

Mishra Punya (2023). A-EYE : When AI can see. https://punyamishra.com/2023/10/14/a-eye-when-ai-can-see/ (consulté le 13 juin 2025).

Mishra Punya (2024). When Truth Doesn’t Matter : AI Falls for Illusory Optical Illusions. Saturday, November 30, 2024. https://punyamishra.com/2024/11/30/when-truth-doesnt-matter-ai-falls-for-illusory-optical-illusions/ (consulté le 13 juin 2025).

Mishra Punya (2025). The Mirror and the Machine : Navigating the Metaphors of Gen AI. https://punyamishra.com/2025/03/13/the-mirror-and-the-machine-navigating-the-metaphors-of-gen-ai/ (consulté le 13 juin 2025).

Mishra Punya et Heath Marie K. (2024). The (Neil) Postman Always Rings Twice : 5 Questions on AI and Education. Dans Exploring New Horizons : Generative Artificial Intelligence and Teacher Education. AACE, p. 14-24.

Mitchell, M. (2024). The metaphors of artificial intelligence. Science, 386(6723). https://doi.org/10.1126/science.adt6140.

Nerlich Brigitte (2024). Hunting for AI metaphors. Making Science Public. https://blogs.nottingham.ac.uk/makingsciencepublic/2024/04/12/hunting-for-ai-metaphors/ (consulté le 13 juin 2025).

Postman, N. (1998). Five things we need to know about technological change. https://web.cs.ucdavis.edu/~rogaway/classes/188/materials/postman.pdf (consulté le 13 juin 2025).

Roach Rebecca (2024). My search for the mysterious missing secretary who shaped chatbot history. The conversation. https://theconversation.com/my-search-for-the-mysterious-missing-secretary-who-shaped-chatbot-history-225602 (consulté le 13 juin 2025).

Searson, M., Langran, E. et Trumble, J. (eds) (2024). Exploring New Horizons : Generative Artificial Intelligence and Teacher Education. AACE. https://www.learntechlib.org/primary/p/223928/ (consulté le 13 juin 2025).

Trott Sean (2024). What we talk about when we talk about LLMs. Stochastic parrots, blurry JPEGs, aliens, and more. The Counterfactual. https://seantrott.substack.com/p/what-we-talk-about-when-we-talk-about (consulté le 13 juin 2025).

Trumble, J., Langran, E. et Searson, M. (2024). Setting Sail Toward New Horizons. Dans Exploring New Horizons : Generative Artificial Intelligence and Teacher Education. AACE.

Twenge, J. M., Campbell, W. K. et Carter, N. T. (2020). Smartphones in classrooms : Impacts on cognitive development and student well-being. Psychology of Technology Journal, 15(1), 102-118.

Van Dinter Raymon, Tekinerdogan Bedir et Catal Cagatay (2021). Automation of systematic literature reviews : A systematic literature review. Information and Software Technology, 136. https://edepot.wur.nl/545840 (consulté le 13 juin 2025).

Weizenbaum Joseph (1967). Contextual understanding by computers. Communications of the ACM, 10(8), p. 474-480. https://dl.acm.org/doi/pdf/10.1145/363534.363545 (consulté le 13 juin 2025).

Annexe 1 : la description de l’image de la sculpture

« Cette image représente une sculpture en ivoire ou en résine imitant l’ivoire, mettant en scène un vieil homme accompagné de deux enfants. L’œuvre est finement sculptée, avec de nombreux détails qui ajoutent à son réalisme et à son expressivité.

Voici une description détaillée de cette sculpture :

1. Sujet et composition

L’œuvre met en scène un vieil homme portant un enfant dans ses bras et tenant la main d’un autre enfant qui lève les bras. L’attitude de l’homme est bienveillante, et les expressions des enfants traduisent l’innocence et la joie. La scène semble évoquer un moment de complicité familiale, où le vieil homme, probablement un grand-père, joue avec ses petits-enfants. L’ensemble repose sur une base circulaire, donnant une stabilité à la sculpture et mettant en valeur l’équilibre de la composition. Chaque personnage est soigneusement sculpté, avec des traits expressifs et des détails précis dans les vêtements et accessoires.

2. Le vieil homme

Le personnage central est un vieil homme au crâne dégarni, vêtu d’un kimono traditionnel. Son visage est souriant, avec des rides finement gravées, témoignant de son âge avancé. Il porte des sandales traditionnelles japonaises et son vêtement est orné de motifs délicats. Dans son bras gauche, il tient un enfant, probablement un bébé, qui s’accroche doucement à lui. Dans son autre main, il guide un autre enfant, qui semble marcher avec excitation. Son attitude est bienveillante et attentionnée, illustrant l’image du grand-père aimant et protecteur.

3. Les enfants

Les deux enfants sont représentés dans des poses dynamiques, contrastant avec la posture plus stable du vieil homme. L’enfant dans les bras : Il semble encore très jeune, vêtu d’un vêtement traditionnel avec des plis soigneusement sculptés. Son visage est paisible, ses yeux à demi fermés, et il repose en toute confiance dans les bras du vieil homme. Ses cheveux sont coiffés en chignon, une coiffure typique des jeunes enfants japonais d’autrefois. L’enfant debout : Il lève les bras, dans un geste de jeu ou de joie. Son expression est vive, avec la bouche légèrement ouverte, comme s’il riait ou appelait quelqu’un. Ses vêtements sont détaillés avec des plis naturels et ses pieds sont posés fermement sur la base circulaire, soulignant le mouvement et l’équilibre de la scène.

4. Les détails et le style artistique

La sculpture est travaillée avec une grande minutie, notamment dans les expressions faciales, les plis des vêtements et les accessoires. Elle semble inspirée de l’art japonais traditionnel, peut-être de l’époque Edo ou Meiji, où de telles scènes de la vie quotidienne étaient couramment représentées. Les proportions sont équilibrées, et les détails sont accentués par des nuances subtiles dans la matière, donnant un effet légèrement patiné qui renforce l’impression d’une pièce ancienne et précieuse.

5. L’ambiance et la signification

Cette œuvre évoque un moment de tendresse intergénérationnelle, une scène familiale empreinte de douceur et de chaleur humaine. Elle célèbre les liens entre les générations, la transmission des valeurs et le bonheur simple des instants partagés en famille. L’iconographie rappelle l’importance de la famille et du respect des aînés dans la culture asiatique, en particulier japonaise ou chinoise, où les figures des grands-parents jouent un rôle fondamental dans l’éducation et le bien-être des enfants.

6. Contexte culturel et historique

Ce type de sculpture était souvent réalisé en ivoire ou en résine dans le style des okimono, des statuettes décoratives japonaises populaires à partir de l’ère Edo (1603-1868) jusqu’à l’ère Meiji (1868-1912). Elles étaient destinées à orner les maisons des familles aisées ou à être exportées vers l’Occident, où elles étaient très prisées pour leur raffinement et leur exotisme. Les thèmes des okimono variaient entre des scènes du quotidien, des figures mythologiques ou des représentations d’animaux. Ici, la scène familiale traduit une vision positive et harmonieuse de la vie, mettant en avant des valeurs telles que l’amour et la protection.

7. Matériaux et techniques de fabrication

La sculpture pourrait être faite en ivoire, en os ou en résine. Si elle est en ivoire véritable, elle a été sculptée avec une extrême précision, ce qui témoigne du savoir-faire des artisans. Si elle est en résine, elle imite parfaitement l’ivoire avec une finition vieillie, accentuant son réalisme. Les détails les plus impressionnants résident dans : Les expressions faciales, qui donnent vie aux personnages. Les plis des vêtements, sculptés avec une finesse exceptionnelle. Les accessoires, comme la petite bourse attachée à la ceinture du vieil homme.

8. Interprétation artistique et symbolisme

La composition de la sculpture est bien pensée : Le vieil homme est la figure centrale, symbole de sagesse et de transmission. L’enfant dans ses bras représente la confiance et l’attachement. L’enfant marchant illustre l’énergie et l’avenir. L’œuvre traduit ainsi une idée d’héritage, où l’expérience du passé (le vieil homme) guide la jeunesse vers l’avenir (les enfants).

9. Conclusion

Cette sculpture est un chef-d’œuvre de finesse et de sensibilité. Elle met en lumière une scène touchante du quotidien, en capturant un moment de tendresse entre un vieil homme et ses petits-enfants. Son style, sa composition et ses détails en font une pièce remarquable, probablement inspirée de l’art japonais traditionnel. Si tu veux des précisions sur l’origine exacte de la sculpture ou son estimation, tu peux consulter un expert en art asiatique ou en antiquités. »

Licence : Pas de licence spécifique (droits par défaut)

Notes

[1https://site.aace.org/about/ (consulté le 13 juin 2025).) qui s’est tenu à Orlando du 17 au 21 mars. Ce colloque réunit annuellement plusieurs centaines de personnes issues de différentes parties du monde[[https://academicexperts.org/conf/site/2025/attendees/map/ (consulté le 13 juin 2025). Notons que les 3 participants français ont été oubliés dans cette carte ainsi que la participation décroit puisqu’il y avait plus de 1 000 personnes il y a une quinzaine d’années.

[2C’est un atelier hands-on (pratique). Chaque participant a apporté son ordinateur et réalise les activités préconisées qui sont discutées collectivement.

[3https://docs.google.com/edit?tab=t.0 ; voir aussi https://melissa-warr.com/ (ouvrir avec Chrome). Pages consultées le 13 juin 2025.

[4https://docs.google.com/4ga5htyvd6ru ainsi que sur un site de Melissa Warr : https://melissa-warr.com/custom-gpts/ (ouvrir avec Chrome). Pages consultées le 13 juin 2025.

[5qui continue cette activité), afin de voir s’il fallait y inclure un élément. En effet, comme on peut lehttps://www.oldyssey.org/episode/le-dernier-ivoirier (consulté le 13 juin 2025).

[6Voir https://bit.ly/2025-SITE-AI (consulté le 13 juin 2025).

[7En fait, la génération des premières images a pris du temps et je ne les ai vues qu’après avoir demandé une autre génération. À la première image était attaché le texte suivant : « Voici l’image de la sculpture représentant un vieil homme avec deux enfants, finement sculptée dans un style inspiré des okimono japonais », alors qu’il y avait trois enfants dans l’image proposée.

[8Cela se développe rapidement, voir par exemple https://www.unite.ai/fr/best-ai-3d-object-generators/ (consulté le 13 juin 2025).

[9https://docs.google.com/4dnuiske65 (consulté le 13 juin 2025).

[10Le prompt est ici : https://docs.google.com/jl2tb8fcdo49 (consulté le 13 juin 2025)

[11https://chatgpt.com/share/d3b55c7107c5 (consulté le 13 juin 2025).

[12https://docs.google.com/6g56u9ox (consulté le 13 juin 2025).

[13https://chatgpt.com/share/6e6d5c (consulté le 13 juin 2025).

[14https://punyamishra.com/-optical-illusions/ (consulté le 13 juin 2025).

[15Cette URL donne accès à une discussion https://chatgpt.com/share/67d88c6c-89e0-800d-9b70-06a6af97d4c7 (consulté le 13 juin 2025).

[16Un chapitre intitulé The (Neil) Postman Always Rings Twice : 5 Questions on AI and Education, en forme de clin d’œil cinématographique.

[17Consulter par exemple, la publication du Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie du Québec (2024).

[18https://www.scholarcy.com/ (consulté le 13 juin 2025).

[19Scholarcy produit ainsi des analyses automatiques des textes qui lui sont présentés.

[20Leadership technologique des administrateurs du scolaire ; politique de l’IA dans l’enseignement supérieur (présentée plus haut) ; Chatbots dans l’éducation ; Impact de l’intelligence artificielle générative sur l’intégrité académique dans l’apprentissage des étudiants ; Systèmes de gestion de l’apprentissage sur le lieu de travail ; Leadership technologique dans l’éducation ; Simulations basées sur la réalité augmentée pour l’apprentissage collaboratif ; Apprentissage en ligne dans l’éducation musicale ; Utilisation de l’IA sur l’écriture des étudiants en anglais langue seconde : L’impact des chatbots d’intelligence artificielle (IA) sur l’apprentissage et l’enseignement dans l’enseignement supérieur ; l’utilisation de chatbots d’IA pour l’apprentissage des langues.

[21https://keenious.com/ (consulté le 13 juin 2025).

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.