AERES : en finir avec l'agence de notation de l'enseignement supérieur et de la recherche, Christian Topalov
AERES : en finir avec l'agence de notation de l'enseignement supérieur et de la recherche.
La sénatrice chargée du rapport sur le projet de loi sur l'enseignement supérieur et la recherche, Mme Dominique Gillot, a annoncé récemment que la suppression de l'Agence d'évaluation de la recherche et de l'enseignement supérieur (AERES), prévue par le texte du gouvernement, devrait encore faire l'objet d'un « débat » : « Nous n'avons pas entendu, dit-elle, de demande de suppression de cette évaluation au sein de la communauté universitaire. » Étrange surdité : s'il est une institution née du dit « pacte pour la recherche » de 2005 qui suscite la protestation générale, c'est bien celle-là. C'est en 2007 que l'AERES a été mise en place : après cinq années d'expérience, universitaires et chercheurs savent assez bien maintenant comment fonctionne et à quoi sert cette agence. C'est d'abord un bref bilan de leur expérience commune que je voudrais proposer.
Noter, c'est pour exclure Il est bon de commencer l'histoire par la fin, car c'est seulement en 2011 que le rôle de l'AERES dans la restructuration de l'université française est apparu dans toute son ampleur : au moment de la mise en place des « laboratoires d'excellence » (labex) et des « initiatives d'excellence » (idex) à qui reviendraient les ressources virtuelles du « grand emprunt ». Au moment donc, où le gouvernement de M. Sarkozy a voulu imposer le partage entre les « excellents » et les autres, entre les gagnants et les perdants, les vainqueurs et les vaincus, dans la concurrence libre et non faussée qui devrait désormais régir ce que nous pensions être un service public. Je serai bref sur les « jurys internationaux » chargés de sélectionner les candidats : nommés par le ministère (sous les espèces de l'Agence nationale pour la recherche) pour entériner les choix du ministère, leurs moindres erreurs était corrigées par des coups de téléphone bien placés, leur rôle se bornant à vérifier que les projets étaient rédigés dans la langue du nouveau management de la science : « gouvernance resserrée », « innovation thématique », « démarche qualité ». Dans les communautés scientifiques concernées, y compris parmi les candidats, ces caricatures de jury étaient d'ailleurs l'objet d'un scepticisme général, voire d'un mépris mérité.
Et l'AERES dans cette affaire ? C'est une agence d'évaluation indépendante, expliquait-on, ses avis ont pour seul but de vous aider à vous évaluer vous-mêmes et ainsi à vous améliorer constamment, elle n'a rien à voir avec les autorités qui prennent des décisions de financement. Sauf qu'il était bien clair lorsque furent rédigés, dans la précipitation générale, les projets pour les « initiatives d'excellence » que seules des unités notés A+ ou A par l'AERES pouvaient entrer dans un « labex ». Bien clair aussi qu'au sein des établissements composant les super-universités du futur (les « idex »), seul un « périmètre d'excellence » bénéficierait de la manne du grand emprunt. Et pour être inclus dans le dit périmètre, bien sûr, il fallait avoir été noté A+ ou A. Etait ainsi instaurée une concurrence au couteau non seulement entre établissements, mais aussi à l'intérieur de chacun d'eux. Certains présidents d'université l'ont bien compris, qui commencent à moduler les ressources de leurs unités de recherche en fonction de la note de l'AERES.
Les « initiatives d'excellence » nous ont donc appris quelque chose d'important : quand l'AERES note, c'est pour exclure. Toutes les agences de notation du monde se ressemblent, à cet égard : les notes de Moody's et Standard & Poor's sont performatives. Lorsque celle d'un État ou d'une entreprise est dégradée, le coût de ses emprunts s'élève et ses difficultés s'accroissent. Une agence de notation a toujours raison.
Le 15 décembre 2011, l'AERES a déclaré renoncer à la notation globale des entités (établissements, formations, unités de recherche), remplacée par « une appréciation textuelle courte bâtie sur les notes multicritères » : moins de 1800 caractères, c'est la « pensée tweet ». Bien entendu, elle continue à donner des notes séparément pour chacun de ses « critères » : que pourrait faire d'autre une agence de notation que noter ? Mais n'est-ce pas merveilleux : les évaluateurs s'évaluent, s'améliorent en écoutant les objections, vous voyez bien que ça marche ! Remarquons simplement que cette manœuvre en recul a eu lieu après que furent distribuées les bonnes et mauvaises notes nécessaires au grand partage qui devait casser en deux l'université française. Cette mauvaise action étant accomplie, l'AERES pouvait renoncer sans trop d'inconvénient à la notation globale.
Noter, c'est pour rééduquer Plus banalement, nous avons depuis cinq ans fait une expérience simple et fondamentale : par ses notations A+, A, B et C et la publication de celles-ci, l'AERES est parvenue à mettre chacun en concurrence avec tous les autres et à faire jouer à tous la comédie nécessaire pour avoir une chance de gagner. Dans les laboratoires, les formations d'enseignement, les établissements, chacun est appelé à collaborer de près ou de loin à la fabrication des épais documents requis tous les quatre ans par l'agence. C'est un gros effort collectif : par solidarité avec le groupe, personne n'aurait le coeur de s'y soustraire. J'ai derrière moi une carrière au CNRS avec un nombre incalculable de rapports d'activité individuels et d'équipe : je n'ai pourtant jamais vu autant de paperasse à remplir qu'aujourd'hui avec l'AERES. Nous avions naguère la liberté de concevoir nos rapports comme nous l'entendions et d'y mettre du contenu autant que nécessaire : il y a maintenant un plan imposé, des calibres, des fiches, des indicateurs à calculer et, cerise sur le gâteau, l'exercice grotesque de l'« auto-évaluation » qui consiste, en substance, à s'administrer à soi-même des critères auxquels on ne croit pas. Tout cela pour remplir un dossier que les membres du comité de visite n'auront de toutes façons pas le temps de lire.
Ainsi, les rapports que nous écrivons pour l'AERES, perte de temps et surtout d'estime de soi, bâtissent des villages Potemkine, des fictions. Peu importe : ce qui compte, c'est que nous les ayons écrits dans la crainte infantile de mal faire. Ce qui compte, c'est que s'implante dans les esprits la « culture de l'évaluation ». Jamais je n'ai vu une telle fébrilité dans les labos qu'avant le passage de l'AERES : on répète la visite à l'avance, parfois même, à l'échelle des établissements, on fait appel à un cabinet de conseil pour remplir le rapport comme il faut. Dans l'ensemble, les collègues trouvent l'exercice inutile ou ridicule, mais c'est comme si nous avions peur de ne pas réussir un examen. On s'applique donc à répondre à toutes les questions, on finit par croire un peu qu'elles se posent réellement. C'est ainsi que les managers de la science espèrent nous reprogrammer. Voilà la vraie nouveauté, et elle est assez grave.
C'est en tout cas ainsi que les décisions de l'agence de notation s'imposent. On n'y croit pas vraiment, mais c'est tout comme. S'il y a une note A plutôt que A+, c'est qu'on a quitté le peloton de tête, s'il y a une note B, c'est sans doute qu'il y a un problème : il n'y a pas de fumée sans feu. Les mal notés se rebellent ou rasent les murs. Les bien notés compatissent, mais n'en pensent pas moins.
Ce sont là des situations et des interactions familières : celles des cours de récréation de notre enfance et des distributions des prix. L'agence de notation n'est pas seulement faite pour exclure certains. Elle est faite pour infantiliser tout le monde. Elle peut espérer ainsi qu'on ne se posera plus la question essentielle : que valent les notes qu'elle distribue ?
L'AERES évalue mal Le vrai problème que pose l'existence de l'AERES, c'est une dégradation profonde de la qualité de l'évaluation scientifique dans notre pays. C'est une affaire très sérieuse.
L'agence se prévaut de « l'évaluation par les pairs » qui est, en effet, la norme reconnue internationalement dans les mondes savants. Elle s'efforce d'en créer l'illusion, mais il ne s'agit malheureusement pas du tout de cela. Décrivons les choses telles qu'elles se passent « sur le terrain ». Chacun, dans l'université et la recherche, a pu rencontrer un jour un « comité d'experts » de l'AERES, certains ont pu aussi en être membre. Au cours de ces visites, les échanges sont généralement confraternels et courtois, parfois intéressants. Une fois franchi le début un peu solennel de la rencontre, la demi-journée ou la journée se déroule sans encombre. Sans doute, on parle très peu des contenus scientifiques, des travaux en cours, des publications ; sans doute, personne dans le comité n'a lu celles-ci, parfois pas même le rapport ; sans doute certains collègues se croient tenus de piocher dans leur « guide de l'expert » une question gentiment impertinente et passablement absurde, à laquelle on s'est efforcé de répondre ; on se quitte néanmoins les meilleurs amis du monde. Comme on dit, dans neuf cas sur dix : « ça s'est très bien passé ». Encore l'infantilisation : on craignait donc que « ça se passe mal » ?
Pour des dizaines d'universitaires qui n'avaient pas encore eu l'occasion de siéger dans une section du Conseil national des universités (CNU) ou du Comité national de la recherche scientifique (CoNRS), c'est une expérience nouvelle : cela prend un peu de temps, mais c'est gratifiant d'être sollicité pour ce genre de tâche. Pour des dizaines d'équipes de recherche ou des formations doctorales qui n'avaient jamais eu l'occasion d'exposer leurs activités à quiconque, c'est appréciable qu'un groupe de collègues s'intéresse à vous pendant quelques heures. Bref, la mise en scène du comité de visite fonctionne bien : nous pouvons croire que nous avons été évalués par nos pairs !
Le problème, c'est qu'il n'en est rien. Ce n'est pas le comité de visite qui a la responsabilité de rédiger le rapport, c'est son seul président. Le comité, formé pour cette seule occasion et qui ne s'est donc jamais réuni avant, n'a souvent pas le temps de se réunir après la visite, ou alors un très bref moment en fin de journée. Le président n'est pas tenu de soumettre son rapport aux membres du comité, sauf s'il souhaite le faire pour des raisons déontologiques. Il n'y a évidement pas de vote, ni sur le rapport, ni sur la note.
Il faut savoir aussi que le président rédige seulement ce que la réglementation appelle un « projet de rapport ». Ce n'est pas lui qui a le dernier mot sur le texte, ce n'est pas lui non plus qui attribue la note. La validation du rapport et l'attribution de la note se font en « groupe thématique » de l'AERES. C'est ce qu'on appelle les « réunions de restitution » : le directeur de la section concernée réunit des présidents de comités d'experts par thème ou discipline, avec la participation des permanents de l'agence. C'est dans ces réunions que l'on fixe les notes – en appliquant la politique de l'agence en matière de critères et de quotas. L'AERES a pour objectif des proportions maximales de notes A et A+, il faut qu'elles soient respectées.
Ces procédures, en tout cas, signifient une chose très simple et très fondamentale : l'agence de notation a dépossédé les scientifiques de la maîtrise de leurs critères de jugement, de leur capacité à délibérer collégialement, et finalement de leur compétence à évaluer en dernier ressort. Les critères, en effet, sont fixés dans des « guides de l'expert » détaillés qui ont été élaborés par des professionnels de la « démarche qualité » assistés de quelques universitaires militants du management de la science ou, pour certains, soucieux de limiter les dégâts. Ces « guides » ont récemment perdu un peu de poids et changé de titre : c'est maintenant « le référentiel de l'AERES » (38 pages). Il faut prendre la peine de lire cette littérature, s'initier à son jargon, apprécier aussi les efforts qu'ont fait les rédacteurs pour intégrer les objections des scientifiques et leur faire croire qu'ils sont des leurs. C'est sympathique, peut-être, mais surtout pathétique. Car il faut lire aussi les documents disponibles dans les tréfonds du site de l'agence. « Le manuel qualité de l'AERES », par exemple. On peut y surprendre ses dirigeants s'adresser à leurs pairs à l'échelle européenne : « Dans ce cadre, l'AERES s'engage à mettre en œuvre un système de management de la qualité, fondé sur l'approche processus et adapté aux finalités de l'action de l'agence dans l'ensemble de sa structure et de ses activités. » (p. 4) Mais quelle est donc cette langue ? Certainement pas celle que parlent celles et ceux qui font vivre, chaque jour, l'université et la science dans ce pays.
Ainsi, loin derrière les aimables collègues qui viennent nous rendre visite, et sans que ceux-ci s'en rendent très clairement compte, il y a une très vaste machinerie. Elle comprend des institutions européennes puissantes, une constellation d'agences publiques ou privées d' « assurance qualité », des cabinets conseils, dont certains travaillent indifféremment pour des universités, des administrations et des entreprises industrielles ou de services. C'est tout un monde, qu'Isabelle Bruno et d'autres chercheurs ont récemment analysé avec précision (La grande mutation. Éducation et néolibéralisme en Europe, Syllepse, 2010 ; Benchmarking. L'État sous pression statistique, La Découverte, 2013) : des gens et de l'argent, des techniques et des formations, des débats doctrinaux, des logiciels, une idéologie proliférante. C'est dans ce monde que l'AERES est allée mendier la légitimité qu'elle n'a pas su conquérir auprès des communautés qu'elle est censée évaluer : le 13 mai 2011, grande nouvelle, elle a été inscrite sur le European Quality Assurance Register for Higher Education. Après avoir été elle-même évaluée avec succès, bien sûr, par une agence bruxelloise encore plus bureaucratique qu'elle : l'ENQA, issue en 2004 de la déclaration de Bologne de 1999, qui est dirigée par un comité composé de directeurs d'agences nationales d'évaluation du type AERES.Asinus asinum fricat. Un point, encore, sur la question des critères. Dans de nombreuses disciplines, et notamment les sciences humaines et sociales, les scientifiques mettent fortement en doute l'utilisation de critères bibliométriques dans les évaluations. Au nom d'une idée simple et fondamentale : ce qui importe, ce sont les contenus des publications et pas leur quantité, quels que soient les raffinements que l'on apporte à mesurer celle-ci. L'acharnement bibliométrique n'est pas récent : dès le début des années 2000, c'était la direction du CNRS elle-même qui le promouvait, en même temps que des agences comme la Fondation européenne pour la science et son European Reference Index for the Humanities (ERIH). En France comme dans d'autres pays, pourtant, nombreux sont qui dénoncent les immenses dangers de ces machines pour la qualité des évaluations, mais aussi pour la survie du tissu si fragile des revues : une fois liée la notation des « publiants » à celle des revues, l'engrenage est en route qui fera bientôt disparaître les revues moins bien en cour, qu'elles soient trop hétérodoxes, trop jeunes, trop pointues, trop interdisciplinaires ou trop innovantes. Sur ce front, les scientifiques ont parfois obtenu gain de cause : dans la plupart des disciplines de sciences humaines et sociales, l'AERES a dû renoncer à noter les revues. Mais l'embarras qu'elle affiche sur son site à ce sujet montre bien que ce n'est que provisoire : elle reste en embuscade.
Le mésusage de la bibliométrie dans l'évaluation scientifique n'est d'ailleurs qu'une des facettes d'un problème plus large, qui résulte de l'existence même de l'AERES ou de toute autre institution fonctionnant sur les mêmes principes : si les scientifiques se laissent déposséder de l'élaboration autonome de leurs critères et procédures de jugement, il est inévitable que la bibliométrie occupe un jour le terrain qu'ils auront abandonné aux managers de la science.
L'AERES n'est pas réformable Si la qualité des évaluations de l'AERES est déplorable, cela tient à ses procédures et ses critères. Mais cela résulte plus fondamentalement de sa structure institutionnelle, qui la prive de toute légitimité et de toute indépendance vis-à-vis du pouvoir politique et de l'idéologie managériale que celui-ci, obstinément, promeut.
Comment pourrait être indépendante une organisation qui, du haut jusque en bas, est fondée sur la désignation : désignation des dirigeants par le ministre et désignation en cascade des « experts » par les dirigeants nommés par le ministre, jusqu'aux présidents des comités de visite et aux membres de ceux-ci ?
Le ministre nomme par décret le président de l'agence et son conseil (art. 2). Sur proposition du président, le conseil nomme les directeurs des trois « sections », chargées respectivement des unités de recherche, des formations et diplômes, des établissements. Pour plus de sûreté, c'est aussi le conseil (ou une formation spécialisée en son sein) qui valide les avis des sections sur les entités évaluées (art. 6). Vous avez bien lu : ce sont donc des gens directement nommés par le ministre qui sont appelés à approuver les notes et avis édictés par l'agence sur les unités de recherche ou les universités de ce pays !
L'indépendance des présidents de l'AERES ? Qu'on en juge. Le président actuel Didier Houssin, nommé en 2011, professeur et praticien hospitalier à l'université Paris V, fut directeur de la politique médicale à l'Assistance publique-Hôpitaux de Paris de 2003 à 2005 et directeur général de la santé au ministère du même nom de 2005 à 2011, sous les présidences de MM. Chirac et Sarkozy. Sa science dans l'art de survivre aux présidents et, surtout, de faire maigrir l'hôpital public n'est pas contestable. Curieusement, son prédécesseur Jean-François Dhainaut (2007-2011) était, lui aussi, professeur de médecine à Paris V. C'est un grand indépendant : il a présidé le comité scientifique d'organisation de la convention de l'UMP sur l'enseignement supérieur et la recherche qui s'est tenue en octobre 2006. Ancien président de Paris V (2004-2007), il a fait depuis une jolie reconversion à la tête du Haut conseil des bio-technologies.
Le reste du conseil de l'AERES est à l'avenant : jusqu'aux membres nommés « sur proposition des instances d'évaluation compétentes en matière d'enseignement supérieur et de recherche » qui sont suspects d'être aux ordres. Trois des quatre personnes nommées à ce titre en mai 2011 par Mme Pécresse l'ont été sans que soient saisies les instances scientifiques qui étaient supposées les présenter. Des faux ont même été produits pour justifier de délibérations fictives.
Membre de ce conseil depuis le 21 décembre 2012 sur proposition du président du Sénat, est aussi Michel Berson, sénateur socialiste de l'Essonne, qui vibrait quelques jours plus tôt dans Le Monde (13 décembre) à « l'enjeu essentiel lié à l'existence de l'AERES : la qualité et la performance de notre système de recherche et d'enseignement supérieur. » On ne s'étonnera pas que le 1er mars dernier le conseil de l'AERES se soit lui aussi insurgé contre son « injustifiable suppression ».
Les dirigeants de l'AERES, en tous cas, se savent au bord de la roche tarpéienne : des critiques sévères de l'institution montent de toutes parts et se sont même fait entendre jusque dans les réunions soigneusement feutrées des Assises organisées par Mme Fioraso. Le rapport Le Déaut en a pris acte et recommande de remplacer l'agence par un institut « indépendant » qui risque de lui ressembler beaucoup mais qui, quand même, constituerait un désaveu cuisant. La ministre elle-même annonçait le 20 décembre dernier à la Conférence des présidents d'université que l'AERES serait supprimée. Or, l'institution est devenue une très grosse et coûteuse machine (16-17 millions d'euros l'an) où convergent de nombreux intérêts : c'est une arme précieuse pour les zélotes du nouveau management public, un moyen d'influence sans risque pour les ambitieux, un refuge pour les fatigués de la recherche, une source de revenus substantiels pour certains. Les chiffres ne sont pas publiés, mais on a de bonnes raisons de penser que l'indemnité de fonction dont bénéficie le président de l'AERES (et qui s'ajoute bien sûr à son traitement de professeur) s'élève annuellement à 75 000 euros. L'indemnité des directeurs des sections serait plus modeste : 25 000 euros. Cela ne vaut certes pas celles que M. Descoings et ses amis s'étaient attribuées à Sciences Po, mais ce n'est pas loin de la prime dont bénéficient bien des présidents d'université, sans présenter l'inconvénient d'avoir à se faire élire et avec l'avantage d'avoir quelque chance, au terme du job à l'AERES, d'être reclassé ailleurs dans le management des institutions académiques.
Une sociologie détaillée de ce petit monde serait à faire, qui mettrait sans doute en lumière une série de trajectoires typiques qui font d'universitaires ordinaires des bureaucrates patentés. Ceux-ci disposent de pouvoirs d'autant plus excessifs qu'on les retrouve dans toutes les instances créées depuis 2005 pour « piloter » par en haut la recherche française : dans les défunts comités de la « Stratégie nationale de recherche et d'innovation » (SNRI), dans ceux de l'Agence nationale de la recherche (ANR), dans les conseils d'administration des Pôles de recherche et d'enseignement supérieur (PRES) ou des grosses universités, et même dans les directions scientifiques du CNRS. On dirait les participations croisées dans les conseils d'administration des entreprises du CAC 40 ou, pour faire plaisir à M. Allègre, une sorte de nomenklatura. Placée aux commandes à l'époque de M. Sarkozy, elle entend bien y rester sous la présidence de M. Hollande.
Voilà quel est, pour ces gens-là, le véritable enjeu du maintien de l'AERES ou, faute de mieux, de sa reconversion douce en « Institut d'évaluation de la recherche et de l'enseignement supérieur ».
Reconstruire une évaluation de qualité dans l'enseignement supérieur et la recherche Une évaluation digne de ce nom nécessite que l'on reconsidère ensemble la question des critères et procédures et celle du mode de désignation des évaluateurs. Car tout se tient : c'est parce qu'elle nomme de façon discrétionnaire des « experts » qui ne tiennent leur autorité que de cette nomination que l'AERES peut leur imposer ses guides et ses normes. N'ayons pas peur d'être un brin solennel : ce qui menace nos institutions universitaires si les professionnels de la qualité restent au commandes, c'est la progressive dissolution de nos normes professionnelles, c'est l'anomie. Quelques années encore de ce régime et les communautés scientifiques françaises auront perdu leur capacité à élaborer, discuter, transmettre leurs propres critères de jugement.
Il est donc grand temps de mettre ou de remettre au centre de toute évaluation la délibération collective, au sein de collèges dotés d'une pérennité suffisante et légitimés par l'élection – des instances pour lesquelles évaluer ait pour finalité de faire mieux et non de créer artificiellement des perdants. Cela, le Comité national de la recherche scientifique (CoNRS) sait le faire depuis des décennies (comme les instances équivalentes des autres organismes nationaux de recherche) et le Conseil national des universités (CNU), au-delà de ses missions actuelles, peut parfaitement aussi s'y engager. Ce ne sont pas des institutions parfaites, tant s'en faut. Mais elles ont ceci d'irremplaçable que les scientifiques en élisent la majorité des membres. Choisies par les communautés qu'elles ont la charge d'évaluer, elles ont des comptes à rendre à celles-ci, pas aux agences bruxelloises d'assurance de la qualité.
CoNRS et CNU constituent le cadre institutionnel qui rend possible ce que le sociologue Nicolas Dodier a décrit comme une « objectivité collégiale basée sur la constitution de petites communautés de chercheurs réunis dans des commissions et placés en position d'évaluateurs le temps d'un mandat ». Un groupe de personnes, majoritairement élues, travaille ensemble dans la durée. Ce groupe élabore lui-même ses critères et méthodes et les rend publics. Des rapporteurs prennent connaissance des dossiers, généralement en profondeur. Il fait partie de leurs tâches de lire les publications essentielles. Ils s'engagent personnellement dans leur rapport, ils formulent une opinion qu'ils doivent soutenir devant les autres et l'avis collectif de la commission est élaboré et adopté en réunion. Bien entendu, on ne note pas. Si c'est nécessaire, on classe en fonction de la question posée (renouvellement d'une unité, aide à un colloque ou à une revue, etc. ; ou, s'agissant des individus : recrutement, promotion). Sinon, l'objectif est de repérer d'éventuelles difficultés et d'aider à les résoudre, pas de fixer une cote en bourse. Le rapport concernant l'entité évaluée est communiqué à celle-ci et non affiché urbi et orbi et, bien entendu, les intéressés peuvent formuler des observations sur ce document.
Des normes professionnelles, constamment reprises et modifiées résultent de ce processus. Au fil des années, des centaines d'enseignants-chercheurs, de chercheurs, d'ingénieurs ont contribué à les élaborer et à les transmettre : ils ne sont pas payés pour cela, cela fait partie de leurs tâches, tout simplement. Issus d'institutions, régions, spécialités, courants divers, animés de convictions et liés à des réseaux variés, ils collaborent entre eux en se disputant, bien sûr, de temps en temps : dans le monde aujourd'hui comme dans la Sorbonne d'Abélard, la disputatio est essentielle pour la vitalité de la science.
Tout le monde sait, en politique, que celui qui a gagné la bataille des mots a déjà gagné. C'est en effet tout un vocabulaire que les nouvelles instances de pilotage s'efforcent d'imposer pour gommer la nécessité de la libre délibération entre pairs : en bonne place y figure l' « expertise ». L'ANR recrute des « experts » pour juger les projets, Bruxelles l'avait précédée dans cette voie, l'AERES munit ses comités de visite d'un « guide de l'expert » et nous serions, dans les comités de lecture de nos revues ou les comités scientifiques de nos colloques, rien moins que des « experts ». Que nous soyons, dans l'ensemble, compétents dans nos domaines respectifs, je l'espère. C'est cette présomption qui nous rend éligibles à participer à l'évaluation de nos pairs, de leurs travaux, de leurs projets. Mais cela fait-il de nous des « experts » ? Accepter ce coup de baguette magique symbolique, c'est oublier une caractéristique fondamentale de la science : elle est construite sur la controverse, elle est validée par le libre débat public au sein des communautés savantes. C'est pourquoi l'autorité attribuée à l' « expert » repose sur une double supercherie : d'abord faire croire que les savants sont toujours d'accord entre eux, ensuite faire le silence sur la procédure de l'arbitrage entre leurs opinions. Ce dernier point est crucial dans les machines que la politique actuelle a mises en place : les « experts » remplissent leurs fiches et l'administration, bien à l'abri, décide. À ces fictions grosses de dangers, il convient d'opposer une vision claire : l'enseignement supérieur et la recherche ont besoin d'évaluations élaborées de façon collective, contradictoire et publique, au sein d'instances mandatées pour cette tâche par la communauté au nom de laquelle elles portent des jugements, jugements dont elles ont à répondre.
Alors, adieu à l'AERES et à ses « experts » et bienvenue aux institutions représentatives des communautés savantes, que la loi d'orientation bientôt débattue au Parlement se doit de remettre au cœur du dispositif d'évaluation scientifique dans notre pays.
Christian Topalov (directeur d'études à l'EHESS) le 16 mai 2013
En savoir plus…