La science dite ouverte (ou open science) se réfère à la recherche scientifique. D’après l’UNESCO, « la science ouverte est un ensemble de principes et de pratiques visant à rendre la recherche scientifique, tous domaines confondus, accessible à tous, au bénéfice des scientifiques et de la société dans son ensemble. La science ouverte consiste à garantir non seulement l’accessibilité du savoir scientifique, mais aussi une production de ce savoir inclusive, équitable et durable. »
La question de la place prise par les IA génératives est une question vive, et suscite nombre d’inquiétudes comme en témoigne la journée science ouverte du CNRS Publications scientifiques : une surproduction fatale ? en novembre 2025. Un article récent paru dans Nature (version ouverte sur arxiv), alerte sur la contraction de la recherche liée à l’IA. Les nombreux reproches de biais des solutions d’IA génératives proposées par les acteurs privés s’appliquent particulièrement aux activités de recherche, qui visent exhaustivité, équité, vérification des sources … La montée en puissance des IA génératives pose beaucoup de questions sur la manière de construire des connaissances.
Le domaine de la recherche, et particulièrement le mouvement de la science ouverte est le mieux placé pour être force de proposition pour développer des outils ouverts pour rendre accessible sa production, et cela passe par des solutions intégrant les IA génératives. Nous allons nous intéresser ici à la recherche d’informations et à l’évaluation des productions scientifiques, et voir que cela peut avoir des répercussions sur notre manière d’aborder l’enseignement.
La première étape pour un accès ouvert aux travaux scientifiques est de mettre à disposition des bases de données qui référencent les différents productions. Des solutions ouvertes comme SemanticScholar, ou OpenAlex référencent plus de 200 millions de documents. D’après Aline Bouchard de l’URFIST, qui fait un formidable travail de veille sur les outils pour la recherche d’informations, ces outils semblent à niveau par rapport à d’autres solutions La difficulté est plus d’être au clair dans son processus de recherche documentaire qui se complexifie, de par la variété des outils existants, et dans la multiplication de frontières qui complexifient l’accès aux sources, bref de maîtriser les bases sur lesquelles se basent les recherches, et les espaces de discours. Elle souligne également que « Comme bien souvent, l’IA vient surtout mettre en valeur les interrogations sur la manière de faire de la recherche. » L’IA, révélateur plutôt que source de problèmes. Au delà de ces base de données ouvertes, OpenAlex vient d’ouvrir une IA générative OpenScholar qui permet de faire des recherches dans cette base de données, et qui vous retournera une liste d’articles, tout en vous laissant le choix du modèle LLM que vous utilisez. Le lab de Google scholar (non ce n’est pas ouvert, mais pour comparaison) propose la même fonctionnalité.
En parallèle, des travaux de recherche visent à améliorer ces outils ouverts. Par exemple, un article récent publié dans Nature : Synthesizing scientific literature with retrieval-augmented language models (premier auteur Akari Asai de l’Allen Institute for AI), et relayé dans Courrier International notamment, propose une solution, initialement appelée elle aussi OpenScholar, pour réaliser des synthèses de travaux convaincantes, supérieures aux outils du commerce. Le prototype de recherche est proposé sur un site opérationnel et donne des résultats effectivement intéressants. Cela reste une démo, un prototype de recherche, qui met à disposition ses modèles
.
La question de l’évaluation des travaux de recherche, d’un point de vue de la science ouverte est centrale pour une « production de savoir inclusive, équitable et durable ». Elle est aussi amplifiée par l’usage généralisé de l’IA (voir plus haut la remarque d’Aline Bouchard). En effet l’IA générative facilite la recherche et donc augmente le nombre de publications de manière importante. La conférence AAAI 2026 a par exemple reçu 30948 soumissions (et ce phénomène se développe dans nombre de conférences internationales réputées), ce qui pose des questions de volume de travail (trop de temps pour tout lire, et difficulté de mobiliser suffisamment de chercheurs susceptibles d’évaluer), et d’équité (est ce que toutes les revues proposées par ces relecteurs sont équitables ?). Le projet OpenReview a permis de gérer le cas de la conférence AAAI, en proposant un processus couplant IA et expertise humaine. Ici, la solution de science ouverte est bien de revoir les processus avec des démarches plus ouvertes, et en intégrant l’IA comme support à la décision des experts.
Ici aussi, on revisite la manière de faire de la recherche, en s’appuyant sur les travaux et les résultats de chercheurs qui ont choisi le domaine de la science ouverte comme objet de recherche. Citons ici un travail récent, encore publié dans Nature (en open access), Self-reflection enhances large language models towards substantial academic response, travaillant sur les boucles de rétroaction de réflexivité, qui permettent d’améliorer les réponses des modèles de langage (LLM), et des évaluateurs humains, une véritable co-apprentissage.
Le métier de chercheur est impacté de plein fouet par la généralisation des IA génératives. Or, dans le supérieur l’enseignant est aussi chercheur. Et ces impacts sur un de ses métiers, peut et doit requestionner son second métier, au travers d’expériences vécues (une bonne manière d’apprendre
). Voici donc quelques éléments, qui semblent transférables, à mettre au débat :
- Sur les sources d’informations et sur les moteurs de recherche. Les dépôts sont plus variés que jamais, avec ou sans barrière d’accès. La variété des sources augmente et celles que l’on va retenir dépendent de nos objectifs. La question de l’espace de discours retenu est une étape centrale. Bref, le travail de collecte, sourçage, qualification et synthèse de sources est plus complexe que jamais, et les outils d’IA génératives ne font qu’augmenter la nécessité de développer et d’aiguiser son esprit critique pour pouvoir travailler. Et cela va plus loin que simplement la question des biais, cela concerne également le processus de recherche ;
- Inversement l’accès à des sources validées, via IA, est bien disponible, nous ne sommes pas réduits à utiliser des outils généralistes et fermés. Il y a les moteurs de recherche généralistes et les moteurs scientifiques, ouverts ou pas, payants ou pas. Chaque solution a son intérêt et ses limites. Et c’est la même chose pour les IA génératives, il y a des outils généralistes (Mistral, chatGPT et consorts), avec leurs biais liés à leur positionnement fermé, et des outils plus scientifiques, dont certains ouverts (OpenAlex et OpenScholar). La question de l’espace de discours dans lequel on positionne notre travail de recherche et d’enseignement, est essentiel à expliciter. Les opportunités sont importantes pour la recherche et pour l’enseignement
- Question complémentaire, comment en tirer parti pour un apprentissage par la recherche ? L’initiation à la recherche fait partie des objectifs / intentions dans l’enseignement supérieur, et là aussi il faut donc tenir compte des avancées des IA génératives. Pour cela, il faut être conscient de la puissance des outils, qui pose la question de la complémentarité humain-machine aussi à ce niveau. L’objectif reste de développer la capacité d’agir de nos étudiants, pas de les réduire à de simples opérateurs d’outils. La motivation, le questionnement authentique sont maintenant incontournables, pour que le processus d’innovation, de créativité, d’approfondissement soient effectivement portés par l’humain.
- L’évaluation ! Celle des chercheurs peut nous aider à évoluer sur celle de nos étudiants. Est ce que l’usage des IA génératives est possible/souhaitable dans un processus d’évaluation. Quel est le bon équilibre entre l’évaluateur humain et l’évaluateur artificiel ? À la fois pour offrir un résultat équitable et inclusif, permettant le soutien à l’étudiant, le développement des capacités des évaluateurs, et l’évolution du système pour qu’il soit ouvert à de nouvelles idées et à de nouveaux processus. La solution de l’humain évalué par la machine ne serait que l’étape précédant celle de la machine évaluée par la machine.
Que ce soit dans la recherche ou dans l’enseignement, l’IA générative est d’abord un révélateur/ amplificateur de problèmes préexistants, et nous amène à évoluer. J’ai souvent entendu mes collègues se questionner sur l’impact de l’IA génératives sur les compétences visées. Et bien commençons par celles du chercheur, et cela avec une démarche de recherche, bien entendu.
Post Scriptum :
En rédigeant ce billet, deux points m’ont interpellé :
- La définition de l’Open science a des acceptions variables suivant les sources, j’ai choisi la plus large.
- Open Scholar (savant ouvert) est un terme qui plaît bien. Il a été utilisé dans différents contextes. Au delà du moteur proposé par OpenAlex (openscholar.ai donc) et de la solution proposée par l’Allen Institute for AI, j’ai trouvé au moins 2 autres initiatives : une solution commerciale qui propose une plateforme : theopenscholar.com, et une communauté openscholar.info qui promeut un nouveau système de diffusion des résultats. Pour moi, il se positionne effectivement par rapport au « google scholar » qui a pris une place importante, car gratuit et de qualité, et qui pourtant est porté par un opérateur privé qui pourrait le supprimer du jour au lendemain. Il aurait pu aussi être un terme fédérateur pour l’Open Science, il va falloir en trouver un autre. Fait amusant : certains articles confondent un peu tout ça, d’autant que je n’ai pas trouvé beaucoup d’information sur openscholar.ai. Si quelqu’un peut m’éclairer sur ce sujet …
Crédit photo : Pried open tin can marked « science » par Judy Breck – licence CC-BY-SA 2.0





Répondre à cet article
Suivre les commentaires :
|
