La triche, la tricherie, la fraude, la malhonnêteté académique… Pour beaucoup d’enseignants, un problème pénible qui nous occupe beaucoup trop. Et qui s’accélère depuis l’arrivée des IA génératives. Mais qu’en est-il vraiment ? Pourquoi triche-t-on ? Pourquoi est-ce un problème ? Et quelles sont les solutions ? Dans cette série de quatre articles nous explorerons la question (1), les enjeux (2) des solutions qui n’en sont pas (3) et des pistes (4).
Crime et châtiment
S’il y a délit, il peut y avoir une peine associée. Et des règlements administratifs ou internes rappellent que la tricherie peut donner lieu à des punitions très fortes. En France, pour les examens officiels, c’est la loi du 23 décembre 1901 qui s’applique. Et son article 2 stipule :
Quiconque se sera rendu coupable d’un délit de cette nature, notamment en livrant à un tiers ou en communiquant sciemment, avant l’examen ou le concours, à quelqu’une des parties intéressées, le texte ou le sujet de l’épreuve, ou bien en faisant usage de pièces fausses, telles que diplômes, certificats, extraits de naissance ou autres, ou bien en substituant une tierce personne au véritable candidat, sera condamné à un emprisonnement de trois ans et à une amende de 9 000 euros ou à l’une de ces peines seulement.
Dans les faits, la sanction est rarement pénale. Elle est disciplinaire. Typiquement une interdiction de s’inscrire à l’Université.
Mais si la principale victime de la tricherie est le tricheur, n’est-ce pas là quelque chose d’absurde ? Comme l’écrit Mathieu Bouville (2008) : « C’est comme condamner à mort quelqu’un qui a cherché à se suicider. »
Des solutions ?
Une fois la question discutée (voir surtout les parties 1 et 2), quelles solutions pouvons-nous envisager ?
Commençons par analyser quelques solutions… qui n’en sont pas.
Continuer comme avant
Certains argumentent qu’en réalité il n’y a pas plus de tricherie aujourd’hui qu’hier. Et que donc, aucune réponse n’est nécessaire. Les chiffres sont compliqués à établir. Mais le choix est alors entre établir clairement qu’il n’y a pas d’enjeu particulier ou de s’y attaquer. Alternativement, même si l’IA ne vient pas augmenter le problème (ce qui n’est pas prouvé), le problème est suffisamment réel pour devoir faire face.
On notera quand même qu’économiquement (THE 2025) il y a un réel problème avec un coût attaché.
Le renforcement de la surveillance
C’est souvent la solution choisie. Le but essentiel est de démontrer aux tricheurs en puissance que le jeu n’en vaut pas la chandelle.
On peut chercher à rendre « le jeu » terriblement compliqué : cela peut passer par l’utilisation de détecteurs ou par la mise en place de technologies de détection de plus en plus sophistiquées. Il existe aujourd’hui un marché du Proctoring, évalué à 1 milliard de dollars par an (Hepi, 2025). On peut ainsi trouver des caméras pour équiper les salles d’examens, des analyseurs d’image pour détecter les mouvements suspects sur une webcam… Il a même été question, en Chine, de faire voler des drones pour détecter des signaux… Il est toujours possible de surenchérir. J’ai même entendu quelqu’un suggérer très sérieusement d’utiliser des détecteurs de mensonges au moment des soutenances !
La détection
Malgré les résultats négatifs connus concernant les détecteurs, des enseignants cherchent encore à piéger les fautifs.
Notre intuition est ici en faute : nous pensons tous être capables de détecter -par la lecture- l’utilisation de l’IA. Mais des tests contrôlés à l’aveugle ont été menés : des mémoires écrits intégralement par une IA ont été soumis (et c’était encore la génération GPT4) et n’ont jamais été détectés (par exemple Scarfe 2024).
La détection peut parfois reposer sur des pièges tendus par l’enseignante ou l’enseignant. C’est par exemple le cas de William Kerney (2025), qui propose -il n’est pas seul- à mettre des pièges dans les énoncés donnés de façon numérique : des textes écrits avec une police de taille 0 ou à l’encre blanche ne seront pas vus par le lecteur humain mais le seront par l’IA générative. Il suffit alors d’ajouter une consigne saugrenue…
Prenons un instant pour expliquer pourquoi les détecteurs ne peuvent pas fonctionner : ils vont reposer sur la recherche de propriétés statistiques des documents. Mais d’autres logiciels appelés humaniseurs peuvent être utilisés pour contrer les détecteurs : il suffit de donner son document à un humaniseur qui va le tester contre les différents détecteurs connus et vous proposer d’effectuer juste assez de modifications mineures pour « passer » les différents tests.
Je ne cherche pas à faire un placement de produits, bien entendu, mais voici ce qu’annonce le site https://aihumanize.io/fr_FR : « Humanize AI transforme le contenu IA en écriture naturelle et humaine qui contourne toute détection IA. Notre humanisateur IA avancé garantit une authenticité parfaite tout en préservant votre message. Essayez-le maintenant !«
Un article très récent du site développez.com décrit assez bien ce que peut-être la surenchère de la détection : les humaniseurs sont utilisés pour tromper les détecteurs qui à leur tour se mettent à détecter les humaniseurs… Et les victimes deviennent les personnes honnêtes obligées à passer ,elles-aussi, par un humaniseur pour se rassurer.
Plus moralement, on pourra aussi envisager ici un scénario cold case : l’humaniseur ne va pas humaniser un texte. Il va se contenter de le modifier en fonction des détecteurs connus à ce jour. Mais pas contre des détecteurs qui verront le jour ultérieurement, en fonction de tests statistiques nouveaux. Ainsi, le mémoire frauduleux qui est passé aujourd’hui sera peut-être détecté demain…
La dissuasion
Mais détecter… pourquoi ? il faut alors que la punition promise soit de nature à faire terriblement peur. C’est la solution qui est choisie régulièrement pour contrer le crime. Et on voit tous ce que cette solution (la répression) permet dans la société pour les crimes et délits. Alors, est-il étonnant que cela ne fonctionne pas non plus dans le contexte éducatif ?

The Young Artist – School Recess (1875)
Eduard Schulz-Briesen (1831-1891). Domaine public.
Discuter avec les élèves
C’est une condition nécessaire, mais pas suffisante. Sans être moralisateur, il faut avoir une explication dans laquelle la personne enseignante essaiera de montrer les avantages de l’intégrité académique, suggérer des temps où utiliser l’IA est une bonne chose, imposer des temps où elle est interdite, en expliquant pourquoi. Il peut être utile ici de s’appuyer sur des résultats scientifiques qui commencent à montrer que l’IA peut donner de mauvais résultats, des résultats des neurosciences qui suggèrent des façons d’utiliser l’IA pour travailler son cours, ses révisions (Kosmyna et al. 2025, Stankovic et al. 2025).
Plus important encore, il faut comprendre que la recherche commence à montrer que l’absence d’apprentissage en profondeur laisse des traces. Comme l’absence d’exercice physique en laisse sur notre corps. L’article très récent de Oakley et al. (2025) analyse en détail comment remplacer l’apprentissage d’un concept ou d’une connaissance par l’apprentissage d’une façon de retrouver à la demande ce concept ou cette connaissance ne se fait pas à coût constant. Ce ne sont pas les mêmes zones du cerveau qui sont activées : dans le premier cas, la mémoire procédurale sera enrichie. Dans le second, c’est uniquement la mémoire déclarative qui le sera.
Remplacer mémoires par examens
Les mémoires et travaux effectués hors de la classe sont aujourd’hui pointés du doigt. En supposant que ces travaux n’étaient pas exempts de tricherie avant l’arrivée de l’IA… Ce qui n’est pas le cas. On trouvait déjà des sites web permettant de se faire rédiger son mémoire pour une somme convenue.
Supprimer les mémoires est aujourd’hui une tentation suivie par certains établissements. Mais ici, il convient de noter qu’on n’examine pas les mêmes compétences. Et surtout, que le travail complexe nécessaire à la préparation d’un mémoire ne sera plus accompli.
Remplacer examens par oraux
Hélas, la triche existe également dans les salles d’examen. Des montres, lunettes et bagues connectées peuvent prendre une image du sujet et transmettre une solution. Il y a même une accélération de ce marché. Il devient alors difficile de contrôler (et est-ce le travail d’un enseignant de le faire ?).
Rappelons que dans les tournois d’échec de premier ordre, les joueurs doivent passer par un portique pour détecter la présence d’électronique. Est-ce vraiment une voie que l’on veut suivre ?
A nouveau, la discussion doit aussi être économique : la surenchère de moyens nécessaires est-elle justifiée ?
Augmenter le niveau
C’est la voie choisie par certains : ne pas lutter contre l’IA mais « produire » des diplômés qui savent utiliser l’IA dans le cadre de leur travail. Autrement dit, des personnes qui ont toutes les compétences et expertises liées au diplôme, avec en plus, celle de maîtriser l’IA. C’est le choix qui a été fait par exemple à Sciences Po [Curieusement, Sciences Po avait réagi très vite quand ChatGPT est apparu. Dès janvier 2024 il était question d’interdire ChatGPT].
Dans ce scénario, les étudiantes et étudiants sont encouragés à utiliser l’IA dans leurs travaux. Il devient alors mécaniquement inutile de détecter ou d’interdire.
Mais une question se pose : s’agit-il d’une compétence supplémentaire ? Et dans ce cas, à temps de formation égal, que sacrifie-t-on ? Quels enseignements sont enlevés pour laisser la place à l’IA ? Ne nous leurrons pas : apprendre à bien se servir de l’IA, en comprendre le fonctionnement, cela réclame du temps. Peut-on vraiment penser qu’on peut produire « des têtes bien pleines »[1] avec moins de temps ?
Bibliographie
Hamsa Bastani, Osbert Bastani, Alp Sungu, Haosen Ge, Özge Kabakcı and Rei Mariman, Generative AI Can Harm Learning (2024). The Wharton School Research Paper, Available at SSRN : https://ssrn.com/abstract=4895486 or http://dx.doi.org/10.2139/ssrn.4895486
Mathieu Bouville. Why is Cheating Wrong ? Stud Philos Educ 29, 67–76 (2010). https://doi.org/10.1007/s11217-009-9148-0 . Également sur https://arxiv.org/abs/0803.1530
William Kerney. Treachery and Deceit : Detecting and Dissuading AI Cheating. Journal of Computing Sciences in Colleges, Volume 40, Issue 9 Pages 10 – 17, 2025. https://www.ccsc.org/publications/journals/SW2025.pdf#page=10
Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, et al. Your brain on ChatGPT : Accumulation of cognitive debt when using an AI assistant for essay writing task. arXiv preprint arXiv:2506.08872, 2025. https://arxiv.org/abs/2506.08872
Barbara Oakley, Michael Johnston, Ken-Zen Chen, Eulho Jung et Terrence J. Sejnowski. The Memory Paradox : Why Our Brains Need Knowledge in an Age of AI, 2025, https://arxiv.org/abs/2506.11015.
Peter Scarfe, Kelly Watcham, Alasdair Clarke, Etienne Roesch. A real-world test of artificial intelligence infiltration of a university examinations system : A “Turing Test” case study. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354. Cité par https://www.theguardian.com/education/article/2024/jun/26/researchers-fool-university-markers-with-ai-generated-exam-papers.
Milos Stankovic, Ella Hirche, Sarah Kollatzsch et Julia Nadine Doetsch. Comment on : Your Brain on ChatGPT : Accumulation of Cognitive Debt When Using an AI Assistant for Essay Writing Tasks. 2025, https://arxiv.org/abs/2601.00856.
[1] Montaigne disait déjà : « Je voudrais qu’on fût soigneux de choisir [à l’enfant] un conducteur qui eût plutôt la tête bien faite que bien pleine […] ». Montaigne, Les Essais, éd. J. Céard, ouvrage cité, I, 25, « De l’institution des enfants », p. 230-231.
Liberté d’expression, indépendance
Les approches et opinions exprimées sur ce site n’engagent que la Chaire RELIA et ne reflètent pas nécessairement celles de Nantes Université et de l’UNESCO.
Licence
Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.




Répondre à cet article
Suivre les commentaires :
|
