Comme Wikipédia auparavant, les outils d’intelligence artificielle générative sont sujets à une méconnaissance et à des préjugés chez les élèves et les étudiants, voire chez les enseignants. Comment les aider à mieux comprendre le fonctionnement de ces outils numériques et éviter l’anthropomorphisme ? L’usage de métaphores serait-il une piste fructueuse ?
Beaucoup de discours actuels sur l’utilisation des intelligences artificielles génératives (IAG) en éducation sont similaires à ceux qui ont longtemps accompagné l’utilisation de Wikipédia.
D’abord, le manque de confiance que l’on peut leur accorder, accompagné d’un recensement d’erreurs que l’on a pu trouver ici et là. Ensuite, une accusation de paresse à l’encontre d’utilisateurs en faisant une utilisation abusive sans réécriture ni vérification. Enfin, un dénigrement diversement fondé sur leur qualité et une volonté initiale d’interdire leur utilisation, reposant en fait sur le problème, pas toujours bien énoncé, que leur utilisation remet en question les travaux et évaluations demandés aux élèves.
À lire aussi : L’IA peut-elle nous dispenser de l’effort d’apprendre ?
Les similarités énoncées cachent cependant des différences importantes entre Wikipédia et les IAG, notamment dans la compréhension ou l’incompréhension de leur fonctionnement et des implications de cette méconnaissance. Pourtant, la circulation de métaphores, tant pour Wikipédia que pour les IAG, peut faciliter des utilisations plus diversifiées et plus intéressantes.
Wikipédia : des étudiants très ignorants de son fonctionnement
J’interroge depuis une vingtaine d’années les étudiants de master sur leurs connaissances de Wikipédia et leurs utilisations. Pour la plupart d’entre eux, les principes fondateurs du projet, pourtant seulement au nombre de cinq – encyclopédisme, neutralité de point de vue, licence libre, savoir-vivre communautaire et souplesse des règles – sont totalement inconnus. Pire, les possibilités visibles dans l’interface standard, comme langues, historique, discussion, n’ont jamais été repérées.
Utilisateurs pourtant réguliers, ils n’ont pas eu la curiosité d’aller explorer ce que pouvait leur offrir Wikipédia. Ils croient comprendre globalement comment cela marche, ce qui ne leur permet pas de développer des utilisations approfondies d’un projet encyclopédique multilingue qui donne à voir son processus collectif de rédaction.
Ils souscrivent à une sorte de maxime simpliste : « Tout le monde peut intervenir dans un article (sous-entendu n’importe qui, des personnes incultes ou malintentionnées), DONC cela ne peut pas être de bonne qualité. »
Comment réfuter une telle affirmation ? D’un point de vue théorique, elle est vraie, les contenus (enfin presque tous) peuvent être sans arrêt modifiés. Mais d’un point de vue pratique, rares sont les personnes qui adoptent un comportement destructeur, l’organisation de Wikipédia permettant de détecter rapidement les interventions « déplacées » (avec des systèmes d’alerte automatiques, des robots, etc.). Les articles sont en grande majorité stables et de bonne qualité. D’ailleurs, dès 2004, des études ont révélé que le taux d’erreur dans les articles de Wikipédia n’était pas plus élevé que dans les grandes encyclopédies.
Cette mauvaise connaissance a des conséquences dont veut se prémunir Wikipédia. Dans les avertissements généraux, elle précise qu’elle « ne garantit pas la validité, l’exactitude, l’exhaustivité, ni la pertinence des informations contenues sur son site ». Cela débouche sur une sorte de lieu commun pour l’utilisation : « Wikipédia doit être un point de départ pour la recherche, et non une destination, et il est conseillé de confirmer de manière indépendante tout fait présenté ». Sage conseil. Mais quand on demande aux étudiants s’ils le suivent, la réponse est… non.
IA génératives : un fonctionnement opaque et des hallucinations
Concernant l’intelligence artificielle, on est passé de l’IA comme champ scientifique aux IA, entités aux contours mal définis, susceptibles de produire rapidement des textes, images, vidéos, etc. Outils de productivité personnelle ou collective, leurs limites et préjudices sont connus et partagés :
-
Des biais constitutifs et des hallucinations : des documents du passé, des discriminations, des hallucinations (voir les fameuses mains à 6 doigts ou l’invention de fausses références), caractéristiques inhérentes à leur fonctionnement…
-
Une absence de compréhension : bien exprimée par la métaphore du perroquet stochastique, une illusion de compréhension renforcée par un discours dans un registre anthropomorphe, pas de contrôle global, défaut d’explicabilité (bien que cela s’améliore)…
-
Une qualité de réponses très variable qui peut dépendre du coût payé par l’utilisateur, ce qui interroge sur ce qui va se passer dans le futur, avec la nécessité de générer suffisamment d’énergie (problème écologique).
Apprendre à les utiliser est un objectif que l’école se doit d’assumer. Mais, comment ? Pour certains, il s’agit de montrer leur fonctionnement interne. Cela a été rarement fait pour Wikipédia, les utilisateurs croyant le savoir. C’est proposé pour les IAG. Toutefois, l’écart entre les descriptions internes, tentant d’expliquer comment un grand modèle de langage génère des séries de tokens, et les réalisations auxquelles les utilisateurs sont confrontés sont tellement éloignées que cela ne semble pas être une bonne solution.
Des métaphores pour interroger les usages numériques
Proposer des séries de métaphores permet de mieux saisir aussi bien certains principes de fonctionnement que les modalités d’utilisation des intelligences artificielles génératives. Cela peut aider aussi à résister à des processus d’anthropomorphisation qui peuvent s’avérer dangereux. Parler de « couteaux suisses », « perroquets stochastiques », « stagiaires ivres » ou « seigneurs suprêmes » conduit à des compréhensions différentes de l’interaction avec les IAG.
Concernant Wikipédia, on constate l’absence de métaphores répandues, sauf des références un peu générales comme « une cathédrale en perpétuelle construction ». Demander à ChatGPT quelles images il proposerait permet d’en trouver d’autres comme le « palimpseste numérique », « la plus grande encyclopédie du monde… écrite au crayon » ou « un canari dans la mine de charbon pour la confiance numérique ! » Certaines avec des explications qui rendent compte du fonctionnement de Wikipédia :
« Le génome vivant de la culture mondiale : une encyclopédie comme organisme vivant, évolutif et sensible à l’environnement.
Le théâtre d’ombres de la neutralité : critique subtile de la neutralité éditoriale, jamais parfaitement atteinte. »
Toutes ces métaphores aident à construire une vision plus intéressante et plus critique de Wikipédia. C’est aussi le cas pour les IAG. Ainsi, à l’invite d’illustrer par des métaphores des cas d’hallucination des IA génératives, ChatGPT, fait preuve d’une certaine poésie. Il évoque :
« un ornithologue qui confond des oiseaux rares avec des créatures mythologiques » ;
« un conteur qui invente des détails pour rendre son histoire plus captivante » ;
« un chirurgien qui opère avec des instruments mal calibrés, produisant des résultats inattendus ».
Notons toutefois que ChatGPT se décrit toujours comme un humain, qui a des intentions. Difficile d’échapper à l’anthropomorphisation ! Avec le même prompt, Claude.ia a généré une présentation sur Internet, synthèse non anthropomorphe et plus intéressante. Décaler l’interrogation des IAG peut permettre de mieux comprendre leur fonctionnement.
Eric Bruillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Répondre à cet article
Suivre les commentaires :
|
