L’IA, une question d’éthique au-delà des chartes
Comment aborder l’immense littérature qui nous inonde autour des questions d’IA, notamment générative, pour mieux prendre position et pouvoir avancer vers des cadres d’actions communs, pour mieux accompagner le développement des usages, notamment dans le domaine de l’enseignement supérieur et de la recherche (ESR) ?
L’ensemble des établissements, soit travaillent sur une charte de l’IA générative dans l’ESR, soit en on déjà adopté une. La forme varie, mais globalement elles se ressemblent autour d’articles traitant de la question de la responsabilité, de la transmission de données, de transparence de l’utilisation, de vérification de l’exactitude et du respect de droit d’auteur.
Ces chartes visent à « à encadrer l’utilisation de ces technologies de manière éthique, responsable et durable » (charte dite DemosES) (qui devient d’ailleurs éthique, responsable et inclusive en conclusion). Ces chartes visent donc à proposer des principes et des règles visant à guider le positionnement des acteurs basées sur un sens qui apparaît éclairant pour l’action et le choix de valeurs considérées comme bonnes (si on reprend la notion d’éthique proposée par (Ménissier, 2024) ).
Le problème est que les valeurs retenues, le cadre éthique ne semble pas explicitement défini. La raison est que la définition d’un cadre éthique est complexe. Dotan et al. (2024) notent que chacun a tendance à raisonner en fonction de son cadre d’action, de sa place, de son rôle. Ménissier (2024) nous décrit 4 cadres éthiques pour l’IA, qui ont des approches, des vertus cardinales et des effets différents : l’éthique informatique qui s’intéresse à comment développer des IA éthiques, l’éthique artificielle qui s’intéresse à l’interaction humain-machine dans un objectif de socialisation des artefacts, l’éthique numérique qui s’intéresse à rendre les réseaux inclusifs et respectueux de la vie privée, et l’éthique des usages de l’IA qui met en avant les valeurs de la démocratie (autonomie, inclusion, équité) – cette dernière étant plus proche des définitions classiques de l’éthique. Collin et Marceau (2022), avec une approche en sciences de l’éducation, proposent 3 plans d’enjeux éthique : conception, données massives, usage. Les auteurs soulignent qu’une approche interdisciplinaire, je dirai systémique est indispensable tant les enjeux sont interconnectés, et qu’il est nécessaire de les gérer dans leur ensemble. Il semble que les chartes adoptées mettent en avant une curiosité par rapport aux usages, et une démarche défensive liées aux aspects plus technologiques, sans se projeter dans les cadres d’usages au-delà d’exemples connus. Les questions posées par les éthiques des usages nécessiteraient de pouvoir se donner un cadre pour évaluer la pertinence de ces usages.
Educause propose un guide éthique
Educause partage un guide éthique de l’IA (merci à l’excellent blog dit l’éveilleur pour avoir relayé l’information) qui propose une série de principes en s’inspirant d’un rapport, dit de Belmont (traduction automatisée) :
- Bienfaisance : (NdA : je suis preneur d’un terme plus français)Veiller à ce que l’IA soit utilisée pour le bien de tous les étudiants et professeurs.
- Justice :Promouvoir l’équité dans les applications d’IA pour tous les groupes d’utilisateurs.
- Respect de l’autonomie : Défendre le droit des individus à prendre des décisions éclairées concernant les interactions avec l’IA.
- Transparence et explicabilité : Fournir des informations claires et compréhensibles sur le fonctionnement des systèmes d’IA.
- Responsabilité : Tenir les institutions et les développeurs responsables des systèmes d’IA qu’ils déploient.
- Confidentialité et protection des données : Protection des informations personnelles contre les accès non autorisés et les violations.
- Non-discrimination et équité : Prévenir les biais dans les algorithmes d’IA qui pourraient conduire à des résultats discriminatoires.
- Évaluation des risques et des avantages : Évaluer les impacts potentiels des technologies d’IA pour équilibrer les avantages et les risques.
Ces principes ciblent des dimensions éthiques spécifiques pertinentes à l’utilisation de l’IA dans l’enseignement supérieur, en soulignant l’importance d’une utilisation juste et équitable, de la protection de la vie privée individuelle, de la transparence dans les processus décisionnels et d’une évaluation équilibrée des risques et des avantages. (fin de l’extrait traduit)
Notons que les premiers principes remettent l’humain au centre des décisions éthiques, les suivantes reviennent sur des préoccupations plus spécifiques aux IA et aux données. Le dernier principe rappelle la nécessité de pouvoir agir dans un cadre d’action complexe, et donc nécessitant régulièrement des réévaluations.
Suivent pour chacun de ces principes, une définition détaillée, une liste de modalités d’application, et des scénarios d’usages qui posent effectivement des questions d’éthique. Le guide rappelle également que ces principes sont fortement interreliés.
La mise en scénarios, souligne bien la nécessité d’échanges avec les différentes « parties prenantes », et de partir des cas d’usages réels pour pouvoir avancer et voir comment l’IA peut trouver sa place dans nos institutions. Le guide conclut par une série de recommandations classiques pour les gouvernances (évaluation continue, formation et développement, intégration dans les politiques, recommandation d’outils, définition de scénarios d’usage, comité éthique)
Quelles autres dimensions ?
Cette tentative d’énonciation de principes proposée par Educause, est une réelle avancée en mettant en avant la « bienfaisance », l’équité (ce qui est sans doute proche de la notion d’inclusif proposée par ailleurs) et l’autonomie.
Est ce suffisant ? Deux dimensions pourraient être considérées pour compléter cette liste, et une approche de risques plus évoluée nécessaire.
L’une est la question dite « durable », qui intègre les questions sociétales (potentiellement abordées dans le principe « faire le bien »), mais aussi les questions environnementales. Si la question n’est pas ignorée dans les chartes actuelles, les réponses restent encore bien timides, en prônant un principe de parcimonie (évaluer si une autre solution autre que l’IA ne serait pas possible, ce qui devrait être toujours le cas …). Le principe de réversibilité, visant à s’assurer qu’il reste toujours possible de se passer d’une solution IA mise en place, est un principe de santé d’un tel système, mais l’expérience passée prouve que ce dernier reste souvent un vœu pieux, sauf à être régulièrement testé. Bref, il reste un travail à faire en lien avec les ambitions de transformations écologique et sociétale portées par l’ESR et ses établissements.
L’autre serait de voir comment généraliser le principe d’intégrité scientifique, qui est central dans le cadre européen proposé pour les chercheurs à l’ensemble de la communauté. Pour les enseignants et les étudiants, cela replacerait l’activité pédagogique dans un objectif de développement respectueux des valeurs de construction et de partage des connaissances, qui pourrait se décliner sous l’appellation intégrité académique dans le cadre de la formation. Ce pourrait être une manière de mettre en avant le fondement de nos missions, et de mettre en avant les relations entre les différents principes éthiques qui en découlent.
Concernant l’approche des risques, deux travaux mériteraient d’être partagés. D’une part une recension des risques concernant notre secteur pourrait être éclairante. Cela peut s’entendre comment se déclinent les risques identifiés de manière générale (voir la bibliothèque du MIT sur ce sujet) dans nos établissements et dans notre secteur qui est directement impacté par les propositions de l’IA générative (qui veut nous partager la connaissance selon ses modalités, qui veut nous aider à apprendre, à créer, qui semble ignorer la notion de droit d’auteur, …)
D’autre part, puisque l’on parle de risques, il serait intéressant de poser la question de résilience/robustesse face à des fluctuations, ou des crises régulières. Par exemple, un premier risque à considérer dans l’analyse serait celui de la non-réversibilité en cas de fluctuation. Comment réagir à des événements impactants ? Dans le cadre de la robustesse, on parle de fluctuations. Que se passerait-il en cas de bulle boursière liée à l’IA ? En cas de cyberattaque ? De crash d’internet ? De flots de soumissions faites avec de l’IAG dans les journaux scientifiques ? Est ce que nos systèmes de recherche et d’enseignement sont robustes à ces fluctuations ?
La mise en place de chartes dans nos établissements est une première étape, qui soulève de nouvelles questions sur les usages et sur la gouvernance. Mais pour pouvoir avancer, il reste à préciser les prémisses de ces chartes (éthique, responsabilité, durabilité, inclusivité), et à suivre les développements des usages réels, y compris à la marge de nos institutions.
En guise de conclusion, au regard de l’intérêt de tous pour les questions liées à l’IA (notamment générative) et de l’importance des évolutions en cours, il est urgent d’encourager des lieux d’échanges ouverts à tous autour des usages, avérés, proposés, projetés, et de les confronter à des principes éthiques clairs et largement partagés.
Références
(Ménissier, 2024) Thierry Ménissier, « Les quatre éthiques de l’intelligence artificielle », Revue d’anthropologie des connaissances [En ligne], 17-2 | 2023, mis en ligne le 01 juin 2023, consulté le 29 septembre 2025. URL : http://journals.openedition.org/rac/29961 ; DOI : https://doi.org/10.4000/rac.29961
(Dotan et al. 2024) R. Dotan, L. S. Parker, and J. Radzilowicz, “Responsible Adoption of Generative AI in Higher Education : Developing a ‘Points to Consider’ Approach Based on Faculty Perspectives,” in The 2024 ACM Conference on Fairness, Accountability, and Transparency, Rio de JaneiroBrazil : ACM, Jun. 2024, pp. 2033–2046. doi : 10.1145/3630106.3659023.
(Collin et Marceau, 2022) Simon Collin et Emmanuelle Marceau, « Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur », Éthique publique [En ligne], vol. 24, n° 2 | 2022, mis en ligne le 23 janvier 2023, consulté le 29 septembre 2025. DOI : https://doi.org/10.4000/ethiquepublique.7619
Educause (2025) AI Ethical Guidelines. Working Group Paper https://library.educause.edu/resources/2025/6/ai-ethical-guidelines
European Commission. (2024). Living guidelines on the responsible use of generative AI in research. ERA Forum. https://research-and-innovation.ec.europa.eu/document/download/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en?filename=ec_rtd_ai-guidelines.pdf
Crédit photo : Reconstruction colorée du zodiaque de DendérahAlice-astro (CC BY-NC-SA)
Répondre à cet article
Suivre les commentaires :
|
