la course pour quelle excellence?

Le 17 décembre 2010

Aujourd’hui en France et en Europe, lorsqu’il est question de politique en matière d’enseignement supérieur et de recherche, on n’échappe pas à « l’excellence ». Les politiques qui se cachent derrière ce mot sont-elles pertinentes ?

Titre original : Débats autour du concept d’excellence

Ce texte est le support d’un exposé que j’ai fait au séminaire de Jean-Richard Cytermann à l’EHESS, le 18.11.2010. Il synthétise et complète sur certains points plusieurs articles antérieurs.

Aujourd’hui en France, lorsqu’il est question de politique en matière d’enseignement supérieur et de recherche, on n’échappe pas à « l’excellence » : campus d’excellence, pôles d’excellence, initiatives d’excellence, laboratoires d’excellence, équipements d’excellence, chaires d’excellence, prime d’excellence scientifique… Cette épidémie frappe plus largement l’Europe. Ainsi l’Allemagne a lancé une « initiative d’excellence »1. La citation suivante extraite du récent document de l’Union européenne intitulé « Europe 2020 Flagship Inititaive – Innovation Union » résume assez bien l’idéologie sous-jacente :

Our education systems at all levels need to be modernized. Excellence must even more become the guiding principle. We need more world-class universities, raise skill levels and attract top talent from abroad.

We need to get more innovation out of our research. Cooperation between the worlds of science and the world of business must be enhanced, obstacles removed and incentives put in place.

On y trouve une double référence : aux classements internationaux d’universités, et à la « stratégie de Lisbonne ». On peut dire que cette politique de l’excellence a véritablement démarré dans les années 2000 avec l’explosion de la mondialisation. Initialement, la stratégie de Lisbonne lancée en 2000 visait à faire de l’Union Européenne « l’économie de la connaissance la plus compétitive et la plus dynamique du monde d’ici 2010, capable d’une croissance économique durable, accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale ». Cette stratégie volontariste apparaît en échec, à strictement parler, mais elle a été réactualisée, et la politique de recherche et développement reste au centre du dispositif.

Qu’il s’agisse des palmarès internationaux ou de la stratégie de Lisbonne, on voit immédiatement l’ambigüité du concept d’excellence : s’agit-il de formation, de recherche, ou d’innovation ? Se place-t-on dans une perspective scientifique, économique, ou démocratique ? L’abus du mot excellence ne vient-il pas conjurer le sentiment de déclin de l’Europe et, pour ce qui nous concerne ici, ne vient-il pas masquer notre incapacité à avoir de « véritables universités » en France ?

Les palmarès internationaux d’universités

L’histoire commence en 2003 lorsqu’un petit groupe de chercheurs de l’université Jiao Tong de Shanghai publie le premier classement mondial des universités. Il existait des palmarès nationaux comme celui de US News and World Report, depuis 25 ans, dont les critères sont beaucoup plus la qualité de l’enseignement et le sort des étudiants que la recherche. Le classement de Shanghai coïncide avec l’irruption de la Chine dans la compétition économique mondiale à un niveau qui menace directement les économies occidentales.

Le fait que ce jugement vient de Chine, futur « maître du monde » dont le développement fascine et effraye quelque peu, a beaucoup contribué au retentissement du classement de Shanghai, tout particulièrement dans notre pays, compte tenu de la place modeste qu’y occupe la France. Ce classement dont les critères et les modalités ont un peu évolué depuis ses débuts, se base cependant avant tout sur la recherche en science et sur des indicateurs quantitatifs comme le nombre de prix Nobel et de médailles Fields, le nombre de professeurs figurant dans la liste des chercheurs les plus cités2… C’est un choix délibéré car, pour les auteurs du classement, seules les données de recherche sont suffisamment fiables et internationalement comparables pour pouvoir faire un classement universel.

On pourrait remarquer qu’avec le faible nombre de prix Nobel français, il était de toute façon difficile de figurer en haut du classement. Rappelons que sur les 50 dernières années, sur quelques 350 prix Nobel attribués en sciences, la France en a reçu 15 tandis que les USA en avaient 195 et le Royaume Uni 47. Par ailleurs les universités de langue anglaise sont sur-représentées dans l’index HiCi de Thomson ISI. Ainsi, il y a autant de highly cited researchers dans l’université de Harvard ou celle de Stanford que dans la France entière3…  Si ce classement a été ressenti de façon aussi cuisante en France, c’est qu’il mettait en évidence le manque de visibilité internationale des universités françaises et aussi de nos gloires nationales, les grandes écoles, qui apparaissent comme des « têtes d’épingle » à l’international.

Les réactions officielles ont été assez éloignées du concept d’excellence. La ministre et les haut-fonctionnaires ont surtout mis en avant la question de la taille des établissements. Ils ont insisté sur la nécessité de fédérer universités et grandes écoles en de grands ensembles qui seraient visibles de Shanghai. Sans craindre le ridicule de vouloir constituer des ensembles approchant ou dépassant 100.000 étudiants pour espérer égaler des universités américaines comme Harvard (20.000 étudiants), Stanford (15.000) ou le MIT (10.000).

Dans un entretien publié par Le Mensuel de l’Université en 2007, le directeur général des enseignements supérieurs de l’époque déclare : «  l’université de Toulouse III, université scientifique et de santé de haut niveau, est actuellement au fond des classements internationaux ; or si l’on prend en compte l’ensemble de la production des universités toulousaines, ce pôle ainsi constitué se retrouverait certainement dans les 60 premières universités mondiales ». Rien n’est moins sûr. Mais, surtout, il faut s’étonner qu’une université scientifique de 30.000 étudiants, 1500 enseignants chercheurs et 750 chercheurs, ait besoin de se fondre dans un ensemble hétéroclite de 80.000 étudiants pour devenir visible dans un classement international qui privilégie pourtant les sciences et la recherche.

Il eut été préférable de s’interroger sur l’état de notre système d’enseignement supérieur et de recherche, écartelé entre universités, grandes écoles et organismes. La France n’a pas de véritables universités ; celles-ci sont mal positionnées, mal gouvernées, ce n’est pas une question de taille. Et si les universités américaines sont si bien classées, c’est que, favorisées par la langue, elles savent attirer les « vedettes » par les salaires et les conditions de travail.

Après le classement de Shanghai, est apparu en 2004 un autre classement à vocation mondiale publié par le Times Higher Education Supplement (THE). Il s’agissait d’un classement plus « subjectif »4 principalement fondé sur la réputation (auprès des universitaires, des employeurs) mais aussi sur des indicateurs de qualité de l’enseignement (nombre d’étudiants par professeur) ou de la recherche (nombre de citations par professeur).

Le classement THE fait la part belle à la Grande-Bretagne qui a 29 universités classées dans le top-200, contre 58 pour les USA et 4 établissements français (3 écoles et une seule université !). On voit apparaître ici une loi des palmarès : « on n’est jamais si bien classé que par soi-même ». C’est ainsi que l’Ecole des Mines de Paris n’a pas craint le ridicule de fabriquer, en 2007, un classement qui faisait apparaître 5 grandes écoles françaises (dont l’Ecole des Mines) dans les 10 premiers du classement, à côté de Harvard, de Stanford et du MIT. Le critère adopté était le nombre d’anciens élèves occupant un poste de dirigeant de l’une des 500 premières entreprises mondiales. Mais voilà, après tout, une autre conception de l’excellence ! Sur un registre voisin, on peut lire dans le supplément Education du Monde, daté du 10 novembre 2010, un palmarès établi après enquête auprès de DRH d’entreprises : sur les 10 meilleures universités selon les recruteurs, 8 sont des écoles de commerce ; les deux autres sont Dauphine et Sciences Po !

L’idée est née d’un classement européen qui serait moins défavorable aux universités de l’Union européenne. Une institution allemande, le Center for Higher Education Development (CHE) a proposé une méthode de classement qui se démarquerait des palmarès classiques, où l’on utiliserait différents indicateurs que l’on n’intègrerait pas dans un seul indicateur de rang pour chaque université. Le CHE copilote avec le Center for Higher Education Policy Studies (CHEPS) de Twente (Pays-Bas), un consortium d’institutions européennes (dont, en France, l’OST) qui travaille à produire un tel classement multidimensionnel « U-multirank » dont on a eu récemment le dernier rapport d’avancement .

On pourrait parler aujourd’hui d’une « saison des palmarès » car, à la rentrée, outre la mise en ligne du classement de Shanghai 2010, on a eu publication du classement QS (Quacquarelli Symons) puis du classement THE (Times Higher Education)5 dont les journaux se sont disputés la primeur, avant d’avoir connaissance du classement du CHE pour les sciences qui est une contribution au projet « U-multirank »(( Voir “De l’excellence en milieu universitaire » in JFM’s Blog. )) .

Les classements déterminent de façon brutale des gagnants et des perdants. C’est un jeu à somme nulle. On stigmatise ceux qui ne sont pas bien classés. On a un cercle vicieux qui tend à renforcer la réputation des institutions déjà réputées et à bloquer les jeunes institutions.

Dans l’ouvrage de Franck et Cook, The winner-take-all society (( Franck R. & Cook P. The winner-take-all-society. The Free Press, New-York (1995). )) , on trouve l’anecdote suivante : une enquête américaine auprès des étudiants plaçait la faculté de Droit de Princeton dans les dix premières facultés de Droit ; le seul problème c’est que Princeton n’a pas de faculté de Droit…

Les classements peuvent être aberrants et destructeurs dans des systèmes universitaires nationaux initialement unifiés. La diversité des institutions est très liée aux sociétés et aux cultures nationales, à leur histoire, aux ressources nationales… Si l’on prend trop exclusivement en considération la recherche, les universités techniques, les écoles d’ingénieurs ou les formations professionnelles (vocational institutions) sont dévalorisées alors qu’elles sont très importantes. Et puis, comment un classement complètement dominé par les pays riches peut-il contribuer à construire des systèmes universitaires de qualité dans les pays émergents ?

On pourrait débattre longtemps de la valeur des différents classements, discuter leurs critères et leurs méthodes6 . Il existe des observatoires qui suivent de près les classements internationaux, comme l’IREG (International Observatory on Academic Ranking and Excellence) ou le Ranking Forum of Swiss universities. Mais la question est plutôt de savoir quelles conclusions on tire des classements et quelles politiques s’appuient sur eux. La vérité est « qu’à travers les classements et les palmarès, se construisent des catégories d’appréhension du monde »7 . Les classements sont d’autant plus « efficaces » qu’ils reçoivent l’appui des médias qui cultivent à partir d’eux des jugements globaux. Ainsi on a vu s’installer partout la notion de world class university8 . La politique universitaire n’est pas réellement conçue à partir des classements, mais ceux-ci sont invoqués pour la justifier, et ceci de façon parfois caricaturale :

A la fin 2009, devant un conseil national de l’UMP, le président Sarkozy déclarait : « Pour l’autonomie des universités qui nous a valu neuf mois d’occupation l’année dernière, nous n’avons pas reculé d’un demi-centimètre. Et pour la première fois depuis vingt-cinq ans, dans le classement des universités de Shanghai, les universités françaises remontent. C’était possible, nous l’avons fait ».

Lors d’une récente conférence de l’OCDE sur l’enseignement supérieur, le président (vice chancellor) de California State University, est allé jusqu’à parler des classements internationaux comme d’une maladie (« a disease »), expliquant qu’ils encouragent des politiques simplistes où les indicateurs deviennent des objectifs. Dans le même registre on pourrait citer la formule de l’anthropologue britannique Marilyn Strathern :

When a measure becomes a target, it ceases to be a good measure.

La course à l’excellence

Le rapport Aghion sur « l’excellence universitaire »9 , fait à la demande de la ministre de l’Enseignement supérieur et de la recherche, explore la problématique de l’excellence au regard des expériences internationales. Il y est beaucoup question « d’excellence académique » sans que ce concept soit clairement défini. On nous dit : « conscients du risque de décrochage, l’Allemagne, l’Espagne, la France et l’Union européenne ont mis en place des initiatives d’excellence qui présentent des caractéristiques communes : focalisation forte de financements pluriannuels sur l’excellence pour renforcer compétitivité et attractivité ».

Ceci renvoie plutôt à la stratégie de Lisbonne et à « l’excellence économique ». La seconde partie du rapport Aghion met d’ailleurs l’accent sur « les performances universitaires en matière d’insertion professionnelle, de flexibilité et de satisfaction au travail ». On s’éloigne notablement de l’excellence académique en matière de recherche, et on met l’accent sur l’innovation, les sciences dures et la technologie. Quand on voit que les sciences humaines et sociales sont quasiment absentes des critères des différents classements internationaux, on comprend que ces questions ne sont pas de pure forme.

La politique qui en découle se caractérise par la volonté de concentrer les moyens sur un petit nombre de pôles et de projets. Déjà en 2008, Valérie Pécresse déclarait par avance : « Je souhaite que l’ensemble des universités françaises soient regroupées autour de 15 pôles »10 . Dans la partie du rapport sur le « Grand emprunt » consacrée aux investissements nécessaires « en faveur du développement de la connaissance, du savoir et de l’innovation », le rapport embraye immédiatement sur  « la visibilité à l’étranger de la qualité et du dynamisme de nos meilleurs établissements d’enseignement supérieur et de recherche » :

« Or leur évaluation et l’impact global des travaux de recherche français ne sont pas à la hauteur de nos ambitions, malgré quelques domaines d’excellence. Ainsi, pour critiquables qu’ils soient, les classements et indicateurs internationaux font état de prestations médiocres ».

« Cette position défavorable dans la compétition mondiale s’explique en partie par la faible diversité des modes de financement de nos établissements d’enseignement supérieur, presque exclusivement publics (..). Mais la position défavorable de la France dans la compétition mondiale  reflète également la trop petite taille de nos établissements ».

Ceci conduit, en particulier, à proposer de concentrer un capital de 7,7 milliards d’euros sur « cinq à dix groupements d’établissements d’enseignement supérieur et de recherche sélectionnés par un jury international ». En réalité, il est bien inutile de réunir un tel jury ; on connaît déjà les établissements en question : ce sont ceux qui hébergent la majorité des chercheurs des organismes de recherche et qui reçoivent d’ores et déjà l’essentiel des crédits récurrents et des crédits de l’Agence Nationale de la Recherche !

L’idée centrale est donc qu’il faut réserver l’argent public à un petit nombre de pôles et de projets, qui seront par ailleurs en position de drainer des fonds privés, en complément ou en remplacement de crédits publics. Il est probable, en effet, que les crédits attribués aux pôles et projets d’excellence soient plus que compensés, à l’avenir, par une baisse importante du budget ordinaire de l’enseignement supérieur, comme c’est le cas aujourd’hui en Grande-Bretagne. Sans doute doit-on éviter le saupoudrage des crédits. Mais le saupoudrage est souvent une conséquence de l’insuffisance globale du financement lorsqu’on ne veut rien sacrifier. La question est de savoir s’il est rationnel et juste de sacrifier tout ce qui n’est pas « classé dans l’excellence ». Tout le monde ne peut pas être « excellent » (sinon le mot n’a plus de sens) et que devient-on si l’on n’est pas « excellent » ?

Nous ne discuterons pas ici de la question générale du financement de l’enseignement supérieur qui devrait être accru dans des proportions beaucoup plus importantes que les 11 milliards du « Grand emprunt ». On notera d’ailleurs que cet argent est une dotation en capital qui ne procurera guère que 300 millions annuels supplémentaires. Il est clair que ceci suffira pas à créer des universités à l’anglo-saxonne11 . Mais la politique « d’excellence » qui se met en place aura des conséquences bien réelles pour les laissés pour compte.

Une politique discutable

Posons-nous d’abord la question : est-ce que la concentration est indispensable à la recherche d’excellence ? Sans doute dans les domaines qui nécessitent de très grands équipements, ceux-ci sont-ils nécessairement concentrés sur quelques campus. Mais il y a beaucoup de recherches qui n’exigent pas de tels moyens. On peut citer l’exemple des mathématiques dont le niveau international n’est pas contesté. La discipline est organisée en un réseau de départements à l’anglo-saxonne, qui innerve la majeure partie du territoire national. On trouve de l’excellence mathématique dans beaucoup d’universités. A quoi servirait-il de la concentrer sur 5 à 10 pôles, sinon à dévitaliser le reste. On peut étendre l’exemple des mathématiques aux sciences humaines et sociales, mais aussi à l’informatique et à bien des domaines de la physique ou de la chimie qui n’exigent pas de très gros équipements.

Voici quelques exemples :

- Le mathématicien franco-vietnamien Ngô Bao Châu qui a reçu la médaille Fiels en 2010 est aujourd’hui à Chicago après un passage à Princeton et Orsay. Mais il a commencé sa carrière post-doctorale comme chercheur au laboratoire de mathématiques de l’université Paris 13 où il a passé 6 ans  de 1998 à 2004, période où sa recherche a fait un pas décisif. Il avait été auparavant moniteur à Paris 13 pendant 3 ans.

- Gérard Ferey, médaille d’or 2010 du CNRS, chimiste spécialiste des solides poreux,  a commencé ses travaux à l’IUT du Mans où il a été en poste de 1967 à 1996 comme assistant, maître-assistant puis professeur, avant de créer l’Institut Lavoisier à l’université de Versailles Saint-Quentin.

- Didier Fassin, sociologue et médecin, qui a obtenu la chaire d’anthropologie sociale dans le prestigieux Institute for advanced studies de Princeton, avait fait sa carrière à l’université Paris 13 comme maître de conférences, puis professeur en même temps que directeur de recherche cumulant à l’EHESS.

Est-ce que la productivité de la recherche sera améliorée en concentrant dans la même université ou le même PRES un brillant département de philosophie et un groupe de physique nucléaire performant ? Si l’on admet qu’il doit y avoir un lien entre enseignement et recherche, est-il souhaitable de transformer la grande majorité des universités en déserts scientifiques ?12 Ajoutons que dans le système français où les professeurs sont des fonctionnaires recrutés suivant des normes nationales encore relativement homogènes, on trouve de bons éléments ailleurs que dans quelques pôles, et ce serait un gaspillage de ressources humaines que de les marginaliser a priori.

Cette politique de concentration est également contestable du point de vue économique. Cette stratégie de création de « clusters » n’est-elle pas d’ailleurs un peu dépassée à l’époque du web mondial ? N’est-ce pas une démarche fermée destinée à aménager des positions de pouvoir ?13 D’ailleurs il ne suffit pas d’avoir quelques centres de recherche producteurs de brevets. C’est une vision réductrice de la relation entre les universités et l’économie.

C’est l’ensemble des forces productives qui comptent et la formation de travailleurs ayant une qualification de niveau post-bac est un enjeu considérable pour l’avenir. C’est la reconnaissance de cet enjeu qui a motivé le lancement aux USA en juillet 2009 d’un plan ambitieux de 12 milliards de dollars sur 10 ans en faveur des community colleges. Par ailleurs l’aménagement du territoire suppose d’encourager le transfert technologique à tous les niveaux entre les universités, les centres de recherche et le tissu économique. Cette nécessité semble reconnue puisqu’on parle aujourd’hui de créer des « pôles universitaires de proximité » en complément des pôles d’excellence. Mais outre le caractère vague et assez peu crédible du projet annoncé, cette conception dichotomique avec, d’un côté l’excellence, de l’autre l’utilitaire et le professionnel, renforcera encore la ségrégation dans le « ghetto français ».

Délimiter a priori quelques institutions proclamées « pôles d’excellence » est mauvais pour la démocratie. La concentration élitiste engendre l’exclusion. On notera, en passant, que la démocratisation de l’accès aux études est un paramètre inexistant dans les classements internationaux d’universités. Il faut sans aucun doute admettre une différenciation de nos institutions d’enseignement supérieur, mais il faut maintenir entre elles un maximum de fluidité (en permettant notamment le passage de l’une à l’autre) et donner à chacune ses chances et son importance en fonction de sa situation. N’oublions pas, quand même, que nous sommes, en France, déjà très concentrés et très différenciés, que ce soit pour la recherche par le biais des grands organismes et des agences de moyens14 , ou pour la formation avec l’existence des grandes écoles. Ajoutons que ces « pôles d’excellence » seront aussi des pôles de l’excellence sociale, moins sensibles aux exigences démocratiques15 .

Lorsqu’on proclame que les universités doivent répondre plus étroitement aux besoins de l’économie et contribuer plus directement aux processus d’innovation, on a tendance à privilégier les formations scientifiques et techniques au détriment des sciences humaines et sociales16 . C’est un contresens majeur sur le rôle des universités. Celles-ci ne sont pas des entreprises qui fournissent un produit bien défini, selon un processus de production standardisé. Beaucoup des qualités appréciées dans la « société de la connaissance » (esprit d’entreprise, capacité managériale, leadership, vision, travail en équipe, adaptabilité, application concrète de compétences techniques) ne sont pas des caractéristiques premières, mais dérivent de qualités plus fondamentales qui résultent elles-mêmes d’une formation générale dans un contexte pluridisciplinaire.

Dans la course à l’excellence, les humanités, les sciences humaines et sociales, les arts, ne cessent de perdre du terrain. C’est le cas aux Etats-Unis où, en 2004, 8% des diplômes de bachelor étaient obtenus dans le champ des humanities contre 18% dans les années 196017 . En Grande-Bretagne le nouveau gouvernement conservateur a annoncé des coupes sévères dans le budget de l’enseignement supérieur qui serait réduit de 40% d’ici 2014-15 ; mais la science, la technologie, l’engineering et les mathématiques seraient épargnés ainsi que la recherche.Il faut en conclure que les sciences humaines et sociales seraient durement frappées. Qu’en sera-t-il de la France ?18  La philosophe américaine Martha Nusbaum nous met en garde : « Avides de réussite économique, les pays et leurs systèmes éducatifs renoncent imprudemment à des compétences pourtant indispensables à la survie des démocraties »19 .

Les critères de l’excellence

L’excellence académique s’apprécie sur la base d’indicateurs quantitatifs de performance qui méritent d’être discutés, y compris d’un point de vue interne. Il y a une tendance lourde à gérer les services publics comme des entreprises et à utiliser des « indicateurs de production » comme mesure de la performance, sans que l’on se pose vraiment la question de la pertinence de la transposition de ces techniques du monde de l’entreprise à celui des laboratoires et des universités. Des chercheurs en sciences de gestion, qui n’ont rien de radicaux, ont montré depuis longtemps que les indicateurs de production chiffrés sont particulièrement inadaptés lorsqu’il s’agit d’évaluer une activité complexe20.

Dans la LOLF qui régit désormais le budget de l’Etat, les crédits du budget sont présentés par objectifs, chacun assorti d’indicateurs de performance. Pour l’enseignement supérieur et la recherche, les indicateurs de la LOLF sont ceux qu’on retrouve dans beaucoup de classements internationaux : nombre de publications ; indice de citations à deux ans ; nombre de brevets ; participation aux programmes cadre européens ; nombre de chercheurs, d’enseignants et d’étudiants étrangers ; pourcentage de diplômés ; taux d’insertion de sortants…. On peut parler de dérive lorsqu’on voit ces indicateurs budgétaires macroscopiques devenir des indicateurs de qualité pour chaque établissement, pour chaque équipe, voire pour chaque individu, et s’établir comme des normes auxquelles les uns et les autres vont chercher à satisfaire, indépendamment de leurs motivations et de leurs démarches propres.

Pour émarger aux « projets d’excellence », les chercheurs vont passer un temps considérable  à justifier leurs demandes de moyens, car on va exiger d’eux des informations de plus en plus détaillées et de plus en plus quantifiées. Ce qui ne garantit rien car les chercheurs inventent des contre-stratégies qui sapent les systèmes de contrôle mis en place. Par contre les indicateurs influent sur les organisations d’une façon souvent négative.

On peut s’interroger, de manière générale, sur la pertinence des indicateurs numériques de production. Un premier problème est que l’on n’attribue de valeur qu’à ce qui est mesurable. On induit ainsi une grande dépendance vis-à-vis des indicateurs quantitatifs, et l’on marginalise des activités ou des qualités qui sont difficiles à mesurer mais qui peuvent être plus importantes. Par ailleurs, les différents acteurs cherchent avant tout à « être bons sur les indicateurs ».

Quand un système d’indicateurs se met en place, il est rationnel pour les acteurs de développer des stratégies de conformisme. C’est le cas notamment pour la recherche sur projets où la principale qualité de celui qui répond à un appel d’offres doit être de se couler dans les intentions de ceux qui ont lancé le programme. Le postulant ne risque rien à « promettre la Lune » car il y a rarement de véritable évaluation ex-post des objectifs précis du programme, et l’on pourrait dire que les indicateurs utilisés sont des indicateurs de « performance virtuelle ». D’après certaines études21 , le seul facteur décisif de succès d’une université sur le long terme est la qualité des universitaires et des chercheurs, ainsi que le niveau et la qualification des étudiants, ce qui renvoie à la qualité du recrutement des uns et de la sélection des autres.

La pondération des différents indicateurs est très délicate. Les conséquences que l’on doit en tirer ne sont pas claires. Si l’on en croit certaines études22 , les indicateurs ne sont pas toujours le moyen de repérer les institutions d’excellence : ainsi, le pourcentage de publications cosignées entre des chercheurs d’institutions « d’excellence » et des chercheurs d’institutions moins prestigieuses aurait doublé depuis la fin des années 90. D’autres études existent sur la « réactivité » aux indicateurs23 : cette réactivité a pour conséquences une redéfinition du travail et une prolifération des stratégies de jeux (gaming strategies). De façon paradoxale, les mécanismes de financement par l’Etat, associés aux indicateurs de performance déterminent la politique des établissements beaucoup plus que la compétition scientifique internationale. Lorsqu’on invoque celle-ci, c’est d’ailleurs par la médiation des classements qui utilisent eux aussi des indicateurs de performance dont certains relèvent davantage du « marketing » que de la science.

On peut admettre que le budget de l’Etat fasse usage d’indicateurs à un niveau élevé d’agrégation. Mais il est très dangereux d’en faire des normes de pilotage des universités, des départements, des équipes de recherche… Il faut regarder ces indicateurs pour ce qu’ils sont : des éléments de diagnostic, discutables et incertains, souvent biaisés et formatés de façon à justifier des évolutions annoncées (self-fulfilling prophecies).

On peut penser, comme Michèle Lamont dans son livre « How professors think in the curious world of academic judgement »24  qu’aucune technique inspirée du management de la qualité ne pourra mieux faire qu’une délibération collective des pairs. Il faut alors se pencher sur la production des jugements dans les communautés académiques disciplinaires. C’est ce que fait Michèle Lamont pour les sciences humaines et sociales. Cette analyse fine fait une grande place aux facteurs psychologiques et aux cultures d’évaluation, de recrutement, de classement, dans ces communautés (et pas seulement aux enjeux de pouvoir).

>> Article initialement publié sur le JFM’s blog

>> Illustrations FlickR CC : Ryan Somma, PhOtOnQuAnTiQuE, Kristian M

  1. Cette « initiative d’excellence » comprend trois axes : écoles doctorales, clusters d’excellence et stratégies d’avenir. Il en a été question dans les séminaires du 4.04.2008 et du 18.02.2010. []
  2. Thomson ISI highly-cited researchers (HiCi) : liste des 250 chercheurs les plus cités, dans 21 domaines. En 2008, 3614 étaient aux USA… []
  3. En 2008, 168 chercheurs pour Harvard, 132 pour Stanford, contre 138 pour toute la France. []
  4. Ce classement est aussi plus volatil que celui de Shanghai. Ainsi par exemple, l’université de Malaisie (The university of Malaya) obtint le 89ème rang en 2004, ce qui fut célébré comme il se doit. L’année suivante elle tomba au 189ème rang sans variation objective de ses performances, et le vice chancellor fut viré… Plus récemment, l’université de Copenhague est tombée du 51ème rang en 2009 au 177ème en 2010… []
  5. Jusqu’en 2009, THE a produit son classement en collaboration avec la société QS (spécialisée dans l’organisation de salons internationaux pour les étudiants), laquelle a publié cette année son propre classement. []
  6. Voir « La fascination des palmarès internationaux d’universités » in JFM’s Blog. []
  7. Selon une expression de Pierre Bourdieu. []
  8. Voir l’intéressante étude « What is a world class university » par trois professeurs de Columbia University, où il apparaît que cette notion est tout sauf claire et objective. []
  9. Rapport d’étape (26.01.10) et Rapport 2ème partie (12.07.10) []
  10. Le Figaro du 26.02.2008. []
  11. Avant la crise financière, le capital (endowment) de Harvard était de 37 milliards de dollars. []
  12. La valeur, l’image et la réputation d’un « collège universitaire » ne sera pas la même s’il est totalement à l’écart de la recherche, ou bien s’il y a dans son voisinage quelques équipes de bons chercheurs sur lesquelles il s’adosse. []
  13. Quand on voit le caractère artificiel du projet de campus (sic) de Saclay, on est en droit de se poser des questions. []
  14. La moitié des chercheurs d’organismes sont concentrés dans une douzaine d’universités et une vingtaine d’établissements concentrent déjà les deux tiers des moyens de la recherche. []
  15. En Grande-Bretagne, le Russell Group qui rassemble les 20 plus grandes « universités de recherche » se félicite du déplafonnement envisagé des droits d’inscription, tandis que 27 universités nouvelles élèvent une vive protestation. []
  16. Il n’est pas étonnant, dans ce contexte utilitariste, que les sciences humaines et sociales se sentent menacées et réagissent souvent avec une violence que l’on ne trouve pas dans les universités scientifiques. []
  17. D’après une note de l’ambassade de France intitulée « Universités américaines : les humanités dans la tourmente » (7.05.2010). Très récemment encore, l’université SUNY dans l’Etat de New-York, a supprimé certaines langues (français, russe…) ou des domaines non directement « utiles » (théâtre, lettres classiques), à la suite de ses difficultés financières. []
  18. Une note de la DEPP affiche qu’en 2009-10, sur 340.000 étudiants inscrits en master dans les disciplines générales (hors Médecine, et écoles d’ingénieurs), 40% sont en Lettres, Langues, Sciences humaines, et 35% en Sciences sociales. Mais il est difficile de comparer avec les USA, compte tenu des différences structurelles des deux systèmes. Il est cependant probable qu’on ira vers une déflation de ces effectifs. []
  19. Courrier international (24.06.2010) []
  20. Voir « Dérives du nouveau management public dans l’enseignement supérieur et la recherche » in JFM’s Blog. []
  21. Cf I. Liefner. « Funding, resource allocation, and performance in higher education systems ». Higher Education, 46 (2003). []
  22. Voir par exemple « Le chercheur et l’obligation de rendre des comptes ». Margit Osterloh, Bruno S. Frey, Fabian Homberg. Traduction française dans Les Annales des Mines – Gérer et Comprendre n° 91 (mars 2008). []
  23. Cf W. Nelson Espeland, M. Sauder, « Rankings and reactivity ; how public measures recreate social worlds ». American journal of sociology 113 (2007). []
  24. Harvard University Press, 2009. []

Laisser un commentaire

Derniers articles publiés