Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Les chercheurs et leur évaluation : une histoire passionnelle

Un article repris de https://theconversation.com/les-che...

« &nbsp ;La montée en puissance des procédures d’évaluation engendre, en plus de leur caractère chronophage, un sentiment de perte de sens du travail.&nbsp ; » Shutterstock

Si l’évaluation est au fondement du métier de chercheur, son institutionnalisation sous la forme d’une instance indépendante a transformé les pratiques de travail et soulevé nombre de critiques sur une tendance à la bureaucratisation de la recherche et un renforcement de la compétition entre laboratoires et universitaires. Quelques éclairages, alors que l’Assemblée nationale a voté, en avril dernier, la suppression du Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (HCéres).


Depuis une vingtaine d’années, le monde scientifique a connu une série de réformes de ses modes de financement et d’évaluation. Ces transformations successives du pilotage de la recherche ont modifié les pratiques de travail des chercheurs, finissant par accroître la compétition qui existe entre eux et les inégalités entre universités et centres de recherche.

Le vote de l’Assemblée nationale, le 10 avril 2025 – visant à supprimer le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (HCéres), l’instance qui évalue l’ensemble des universités et des laboratoires de recherche en France – montre que les controverses sur les « bonnes pratiques » en matière de gouvernement de la recherche ne sont pas closes.

Voilà qui nous invite à questionner le modèle d’évaluation de la recherche instauré depuis le milieu des années 2000. Comment fonctionne-t-il, pourquoi a-t-il été mis en place et pourquoi est-il contesté ? Quels sont les effets de ces réformes sur les dynamiques scientifiques et, in fine, la production des savoirs dans notre société ?

L’évaluation de la recherche : une histoire ancienne, trois bouleversements

Rappelons que l’évaluation n’est pas une activité nouvelle dans le quotidien des chercheurs : elle est au contraire un pilier de la profession, garantissant la validité des connaissances produites et diffusées. En France par exemple, le Comité national de la recherche scientifique (CoNRS) qui évalue les individus et les équipes de recherche du CNRS.

Comme dans la majorité des pays, l’évaluation de la recherche est pratiquée « par les pairs », c’est-à-dire par d’autres membres de la profession scientifique qui fondent leurs avis sur leur compétence et leur expertise. Seuls les directeurs de laboratoires concernés avaient alors accès aux résultats de ces évaluations.

Un important tournant a lieu en 2007 : le gouvernement de Nicolas Sarkozy met en place l’Agence d’évaluation de la recherche et de l’enseignement supérieur (l’Aéres, remplacée en 2014 par le HCéres). Méconnue du grand public, cette agence a pourtant rapidement acquis une place centrale dans la vie des institutions de recherche en France. Elle est créée dans un contexte de défiance entre l’État et les professions intellectuelles, avec l’objectif explicite de révolutionner les pratiques d’expertise pour détecter les « meilleurs » centres de recherche… et sanctionner les autres.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les intentions réformatrices de l’Aéres, encensées par les uns, ont autant de revers pour les autres. Elle acte trois bouleversements centraux dans les pratiques de jugement.

Tout d’abord, les avis rédigés, mais aussi les notes obtenues à l’issue de l’évaluation, sont rendus publics et consultables en ligne. Ces pratiques d’évaluations quantifiées ne sont pas nouvelles : certains organismes et le ministère de la recherche attribuaient des notes aux laboratoires (de A+ pour la meilleure à C pour la plus basse), et calculaient un taux identifiant le pourcentage de chercheurs considérés comme ayant un volume de publications scientifiques satisfaisant. Mais jusqu’à la mise en place de l’Aéres, ils restaient confidentiels.

L’objectif d’une telle publicisation est de donner aux citoyens des gages concernant l’utilisation des crédits publics et de fournir aux autorités concernées des outils de pilotage de leur offre scientifique, en objectivant des hiérarchies académiques.

Le revers est l’important stigmate réputationnel qui touche les laboratoires mal notés et leurs membres, à l’issue d’une évaluation mettant en œuvre des critères qui ne font pas toujours l’objet d’un consensus dans la profession. Il est critiqué y compris par des chercheurs travaillant au sein de cette agence.


À lire aussi : La recherche à l’épreuve de la mise en concurrence


La seconde transformation majeure réside dans l’important travail de mise en règle de l’évaluation. Une profusion de tableurs Excel et de « guidelines » calibre l’intégralité du processus évaluatif. Les promoteurs d’une telle régulation du jugement insistent sur sa fonction d’évitement des conflits et des proximités d’intérêt, assurant alors la probité du jugement rendu.

C’est alors la bureaucratisation accrue des pratiques professionnelles qui fait l’objet de critiques : la montée en puissance de ces procédures engendre, en plus de leur caractère chronophage, un sentiment de perte de sens du travail, en ce qu’elles éloignent la pratique évaluative d’un art de juger au profit d’une opération de remplissage d’indicateurs.


À lire aussi : Loi de programmation recherche : vers une polarisation du monde universitaire


Le dernier changement central réside, enfin, dans la standardisation du jugement. En centralisant l’évaluation de la recherche, cette agence et son successeur le HCéres harmonisent le processus d’évaluation tout comme les critères de jugement. Pour ses défenseurs, cette standardisation est, comme pour les bureaucraties du XIXᵉ siècle, le gage d’une équité dans le jugement. Ainsi, depuis la création de cette agence, tous les laboratoires de recherche sont expertisés selon le même protocole, incluant une visite sur site, permettant d’approfondir la connaissance des centres de recherche.

Les critères sont aussi identiques quel que soit le domaine disciplinaire, de sorte que l’ensemble du dispositif de recherche est évalué à la même aune. La critique porte alors sur le désajustement de certains critères d’évaluation vis-à-vis des conditions et des pratiques de travail dans certaines disciplines et sur certains territoires.

L’Aéres puis le HCéres n’actent pas la fin de l’évaluation par les pairs, mais marquent un tournant vers une évaluation collégiale sous surveillance, dont le contenu et la forme sont fortement encadrés. Ils entérinent la domination de certaines conceptions de la science sur d’autres, aboutissant à redéfinir ce qu’est la qualité scientifique et les pratiques de travail légitimes en recherche.

Des effets pluriels sur la définition de l’ « excellence » scientifique

La définition des critères et des processus d’évaluation n’est pas une simple opération technique : elle est aussi un geste normatif et politique établissant ce en quoi consiste la qualité académique.

Les critères affichés par l’agence, conçus initialement par des physiciens et des biologistes, sont adossés aux pratiques de publications les plus légitimes dans leur domaine, à savoir les publications d’articles dans des revues internationales à comité de lecture, au détriment par exemple des ouvrages collectifs. Si ces normes de qualité peuvent faire l’objet de résistances et d’appropriations distinctes, il n’en est pas moins qu’elles diffusent un modèle de production scientifique dominant.

Cependant, l’effet le plus original et inattendu de cette évaluation réside dans la diffusion d’une « culture de laboratoire » dans des disciplines où cet espace institutionnel n’était pas le plus structurant – comme en sciences humaines où les pratiques de recherche sont plus individuelles. Cet effet est lié à une singularité française : alors que dans d’autres pays, ce sont des départements d’enseignement et de recherche qui sont évalués, le fait que l’évaluation de la recherche s’adosse en France aux laboratoires a abouti à les ériger en véritables espaces de travail collectif, d’échanges et de collaborations scientifiques.

Les injonctions à « faire laboratoire », c’est-à-dire à réfléchir à la cohérence thématique et à l’identité collective du laboratoire, à l’intégration des différents personnels en son sein (personnels administratifs, doctorants et postdoctorants, etc.), ont contribué à structurer les centres de recherche sur tout le territoire français. Le modèle de l’enseignant-chercheur conduisant ses travaux de façon isolée, entièrement hors du laboratoire, semble révolu.

La refondation continue de l’évaluation : une nécessité

Depuis 2007, l’instance nationale d’évaluation de la recherche ne cesse d’être critiquée, destituée, puis de renaître de ses cendres. C’est aussi le signe que les critiques sont parfois entendues. Face aux controverses liées à la publication de notes et des taux de chercheurs « publiant », ces pratiques ont été abandonnées en 2013. L’injonction à déposer des brevets a été rendue caduque dans les disciplines les plus éloignées du marché.

Les critiques contre le HCéres invitent moins les chercheurs à rejeter en bloc toute forme d’évaluation qu’à participer activement à sa refondation : l’initiative « Agora Sciences Université Recherche », lancée en mai 2025, vise à construire des propositions de réformes sur la base d’une très large consultation de la communauté académique.

Au-delà de la question de la réappropriation par les professionnels de leurs dispositifs de gouvernement, il importe de penser les évaluations à partir de leurs conséquences. Dans le système français, des évaluations négatives ne donnent pas automatiquement lieu à des sanctions financières, ou à un alourdissement des charges pédagogiques des chercheurs, comme c’est le cas en Grande-Bretagne. Mais dans un contexte d’austérité budgétaire et d’attaques envers la science, le sort d’équipes mal jugées risque d’être préoccupant et d’entraver la dynamique globale de recherche.

The Conversation

Clémentine Gozlan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Licence : Pas de licence spécifique (droits par défaut)

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.