Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

La triche… et si l’IA n’était pas le problème ? (1)

27 janvier 2026 par Colin de la Higuera Coopérer 2 visites 0 commentaire

Un article repris de https://chaireunescorelia.univ-nant...

La triche, la tricherie, la fraude, la malhonnêteté académique… Pour beaucoup de personnes enseignantes, un problème pénible qui nous occupe beaucoup trop. Et qui s’accélère depuis l’arrivée des IA génératives. Mais qu’en est-il vraiment ? Pourquoi triche-t-on ? Pourquoi est-ce un problème ? Et quelles sont les solutions ? Dans cette série de trois articles nous explorerons la question (1), les enjeux (2) et les solutions (3).

J’ai failli intituler cet article « IA et évaluation ». Alors qu’en réalité, nous allons beaucoup parler de tricherie. Exclusivement ? Non, car la tricherie, la décision de voir cela comme problème ou pas, la façon de chercher à résoudre ce problème, le cas échéant, tout cela a une incidence sur tous les autres aspects de l’évaluation. Et donc de l’éducation.

Dans un premier temps, nous allons chercher à cerner la question : que veut dire tricher ? que faut-il pour qu’on parle de tricherie ? Est-ce le terme adéquat ? Nous verrons que pour qu’il y ait triche, il faut des règles ou des usages établis. Dans le contexte de l’IA, c’est bien entendu déjà un problème. Nous allons aussi essayer de comprendre pourquoi les élèves et personnes étudiantes trichent. Ça ne va pas de soi. La question suivante est la plus compliquée, peut-être : pourquoi la triche est-elle un problème ? Nous chercherons à faire la différence entre les arguments moraux, les arguments économiques et les arguments pédagogiques.

Il sera utile à ce stade de nous demander si notre analyse est universelle ou si elle concerne plus particulièrement la France. Parce que oui, notre système éducatif est différent et cela a une incidence ici. Une comparaison rapide avec d’autres systèmes est intéressante.

Toujours dans la compréhension de ce qui se joue, il sera utile de comprendre la différence entre évaluation sommative et évaluation formative, le cadre proposé par l’alignement de Biggs, et les enjeux liés aux détecteurs. Cela nous donnera des éléments pour analyser la situation.

Avec cela, nous pourrons regarder les solutions possibles.

Que veut dire tricher ?

Le Larousse nous dit que tricher, c’est « enfreindre certaines règles, certaines conventions explicites ou d’usage en affectant de les respecter ».

Les joueurs de cartes
Theodoor Rombouts (1597–1637). Domaine Public

Dans cette définition un mot retient notre attention : usage. Pour enfreindre les conventions d’usage, il faut qu’il y ait des usages partagés et connus. Et si possible, établis. Or, pour cela il faut du temps. Et justement, il ne s’est passé que trois ans depuis l’arrivée des IA génératives. Avec des technologies sans cesse en changement mais des usages et notre acceptation de ceux-ci qui va varier énormément. Il est donc impossible de parler d’usages établis.

Quand -en plus- les conventions explicites n’existent pas, il en résulte une frontière floue entre ce qui est de la triche et ce qui ne l’est pas.

Ainsi, quand on interroge les élèves et personnes étudiantes, nous faisons ce constat : pas de stabilité dans les usages, donc pas d’accord sur ce qui constitue de la triche ou pas. Les personnes étudiantes ne savent pas elles trichent ou pas. Dans un rapport récent sur la vulnérabilité des Universités Britanniques à la triche avec les outils IA (THE 2025), les élèves et personnes étudiantes sont interrogés. Et l’auteur en conclut que si 22% déclarent avoir triché, en réalité, le chiffre est sans doute moindre.

Nous avons la même expérience à Nantes : lors d’une réunion, en décembre 2025, avec les personnes doctorantes de l’Université, celles-ci déclaraient ne pas savoir si elles étaient en train de tricher dans leur utilisation de l’IA ou pas.

Avant de clore cette section sur la définition de la tricherie, notons que le terme « tricherie » lui-même est réducteur. On pourrait choisir le très utile terme « academic misconduct » utilisé dans le monde anglo-saxon. Il peut se traduire par « malhonnêteté académique » (comme le font nos camarades canadiens [1] ).

Dans un article de revue, nous ferions ce choix (et privilégierions même le terme « intégrité académique » qui permet de regarder les choses de façon positive). Mais il s’agit ici d’un billet de blog : utilisons le terme que tout le monde comprend !

Tricher, pourquoi ?

Nous n’avons pas de statistique fiable sur les raisons de la triche. Comme le montre Philip Newton (2025), les disparités dans les réponses des étudiant·es sont nombreuses tant il est difficile d’obtenir des réponses vraiment honnêtes. Des témoignages et articles divers semblent cependant pointer sur plusieurs explications :

  • l’enseignant·e n’est pas intéressant·e,
  • la spirale de la triche (je triche parce que j’ai toujours triché),
  • la pression sociale pour réussir : autrement dit la note qui devient la raison de l’école.

Une littérature abondante aborde la question depuis bien avant l’arrivée des IA génératives. Ainsi, Miles et al. (2022) en font une analyse systématique et listent des facteurs qui peuvent se combiner entre eux :

  • L’incompréhension de ce qui est une «  academic misconduct ».
  • Les pairs : si les autres trichent, je triche.
  • Les règles au niveau de l’institution : les établissements qui ont des règles claires verraient moins de tricherie.
  • Le risque et les punitions qui ne font pas peur.
  • Le cas des personnes étudiantes étrangères et des différences culturelles : dans le cas du plagiat en particulier, la notion de respect du droit d’auteur peut être très différente d’un pays à un autre.
  • La technologie : l’Internet a entrainé plus de tricherie.
  • L’environnement d’apprentissage qui peut encourager ou pas l’intégrité académique.
  • La pression, qui peut-être sociale ou familiale.
  • Une culture de la triche.
  • Le raisonnement moral.
  • Des attributs individuels incluant le genre, l’âge, la discipline, le niveau de satisfaction…

De nos propres observations en collège et au lycée lors d’ateliers organisés par la Chaire RELIA sur les usages de l’IA, il en ressort que les élèves ne vont pas utiliser les IA génératives pour apprendre, mais, quand l’enseignant « passe en évaluation », tout devient possible, en particulier quand l’évaluation n’est comprise que comme un système donnant lieu à une note et que le (seul) but est d’avoir une bonne note.

Des éléments d’analyse

Avant d’entrer dans le vif du sujet, examinons quelques éléments qui peuvent nous aider à comprendre mieux les enjeux.

L’IA n’est pas toujours une aide à l’apprentissage

Le discours dominant semble être que l’IA est aujourd’hui un outil indispensable à l’apprentissage. Et que, par conséquent, freiner son introduction dans le système éducatif serait une erreur. Au contraire, régulièrement, l’interrogation est : pourquoi va-ton si doucement ? Ne serions-nous pas en train de perdre la course ?

Si l’éducation n’est pas une course et s’il y a d’autres raisons à prendre le temps (la formation des enseignant·es, le besoin d’IA souveraines) il convient de noter qu’on commence à voir que l’apprentissage peut se faire moins bien quand il est accompagné par l’IA (Bastani et al. 2024). Et les sciences neuronales nous expliquent pourquoi (Kosmyna et al. 2025, Oakley et al. 2025).

L’alignement pédagogique

En 1996, Biggs propose d’aligner les attendus pédagogiques, le curriculum et les évaluations. Un problème dans l’alignement et plus rien ne marche : des compétences non évaluées vont entrainer la frustration des apprenant·es, des objectifs qui cessent d’être au programme peuvent mener à la perte de crédibilité de la formation.

L’IA remet en cause l’alignement pédagogique : en exemple assez marquant est celui du doctorant. Les attendus du doctorat sont définis par le décret de février 2019. Ils sont ambitieux. La formation est dispensée par l’équipe encadrante et au sein de l’école doctorale. Et la plupart du temps, l’évaluation se fait à travers la soutenance et est validée par deux rapporteurs sur la base d’un écrit sans réelle possibilité d’interroger le candidat.

Évaluation formative ou sommative

On parle d’évaluation formative quand la note, s’il y en a une, va servir à l’élève à évaluer ses apprentissages.

On parle d’évaluation sommative quand la note va avoir une importance sur le devenir de l’élève.

Souvent, les enseignant·es envisagent des évaluations qui sont à la fois sommatives et formatives : le travail demandé est intéressant et permet d’apprendre, mais il est également noté et cette note doit jouer un rôle dans le calcul d’une moyenne, le passage dans l’année suivante.

L’absence de détecteur fiable

Les détecteurs d’IA ne fonctionnent pas. Du moins, pas avec assez de fiabilité pour qu’une décision puisse être prise directement. Dans un système dans lequel la suspicion pourrait déclencher un oral, pourquoi pas. Mais si, au nom d’un pseudo principe d’équité il est impossible d’agir ainsi…

Les autres pays

Tous les pays sont différents. La question qu’il convient de se poser est : certaines spécificités historiques et culturelles permettent-elles d’avoir moins de soucis avec la malhonnêteté académique ? Dans la prochaine partie, nous mettrons en évidence certaines spécificités françaises.

Bibliographie

Hamsa Bastani, Osbert Bastani, Alp Sungu, Haosen Ge, Özge Kabakcı and Rei Mariman, Generative AI Can Harm Learning (2024). The Wharton School Research Paper, Available at SSRN : https://ssrn.com/abstract=4895486 or http://dx.doi.org/10.2139/ssrn.4895486

John Biggs. Enhancing teaching through constructive alignment. High Educ 32, 347–364 (1996). https://doi.org/10.1007/BF00138871

Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, et al. Your brain on ChatGPT : Accumulation of cognitive debt when using an AI assistant for essay writing task. arXiv preprint arXiv:2506.08872, 2025. https://arxiv.org/abs/2506.08872

Paula Miles, Martin Campbell, Graeme Ruxton. Why Students Cheat and How Understanding This Can Help Reduce the Frequency of Academic Misconduct in Higher Education : A Literature Review. J Undergrad Neurosci Educ. 2022 20(2):A150-A160. https://doi.org/10.59390/LXMJ2920https://pmc.ncbi.nlm.nih.gov/articles/PMC10653228/

Barbara Oakley, Michael Johnston, Ken-Zen Chen, Eulho Jung et Terrence J. Sejnowski. The Memory Paradox : Why Our Brains Need Knowledge in an Age of AI, 2025, https://arxiv.org/abs/2506.11015.

Philip Newton (2025). How vulnerable are UK universities to cheating with new GenAI tools ? A pragmatic risk assessment, Assessment & Evaluation in Higher Education, 50:8, 1332-1343, DOI : 10.1080/02602938.2025.2511794. https://www.tandfonline.com/doi/full/10.1080/02602938.2025.2511794#abstract

Times Higher Education. Universities need to ‘redefine cheating’ in age of AI. 2025. https://www.timeshighereducation.com/news/universities-need-redefine-cheating-age-ai


[1] https://knowledgeone.ca/countering-cheating-elearning/ ?lang=fr

Liberté d’expression, indépendance

Les approches et opinions exprimées sur ce site n’engagent que la Chaire RELIA et ne reflètent pas nécessairement celles de Nantes Université et de l’UNESCO.

Licence
Licence Creative Commons

Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.

Licence : CC by

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom