« Les apports de la recherche universitaire restent encore à l’état de potentialité »

Article publié dans Acteurs publics, 148-149, novembre 2020-février 2021, p.3-6

Professeure associée en sociologie à Sciences Po et directrice du Laboratoire interdisciplinaire d’évaluation des politiques publiques (LIEPP), Anne Revillard analyse la faible place des universitaires français dans les processus évaluatifs et met en exergue deux limites :  le déficit des moyens de la recherche et les limites propres au cloisonnement de l’Université.

Force est de constater que les acteurs universitaires occupent actuellement une place marginale dans les pratiques d’évaluation, notamment en France. L’évaluation est essentiellement le fait d’administrations ou de consultant.e.s dans le secteur privé. Pourquoi importe-t-il de faire une plus grande place à l’Université dans l’évaluation, à quels obstacles se heurte cette ambition et comment les surmonter ?

L’évaluation correspond une grande diversité de pratiques (on entend souvent qu’il y aurait autant de définition de l’évaluation que d’évaluateurs), mais dès lors qu’on la définit comme une entreprise visant à objectiver les enjeux, le fonctionnement et les conséquences d’une politique publique, la démarche de recherche apparaît immédiatement pertinente pour l’évaluation. En effet, cet effort d’objectivation passe par des démarches d’investigation empirique dont les méthodes ont été théorisées par différentes sciences sociales. Ces méthodes sont diverses : quantitatives, qualitatives, historiques, comparatives… Toutes contribuent à enrichir notre compréhension des enjeux et des effets de l’action publique. Et en pratique, c’est à partir de cet apport méthodologique que des chercheurs issus de différentes disciplines (psychologie, éducation, santé publique, sociologie, économie…) ont initialement théorisé, à partir des années 1960, la démarche d’évaluation en tant que pratique de sciences sociales appliquée.

Mais la pratique de l’évaluation ne saurait se limiter à l’application peu réflexive bien que systématique d’une méthode pour répondre à la question posée par un commanditaire en suivant des critères d’évaluation que lui seul dicterait. Une pratique plus réflexive de l’évaluation suppose d’aller au-delà de ce rôle instrumental, en interrogeant aussi les critères eux-mêmes, en mettant en perspective la question d’évaluation posée par rapport aux autres manières d’interroger l’action publique considérée. Pour ce faire, il faut disposer du recul nécessaire sur la politique étudiée, qu’alimentent par exemple les approches historiques, comparatives, ou encore les analyses en termes de coût d’opportunité de la politique par comparaison à d’autres options possibles… Mais il faut aussi être en situation d’indépendance relative vis-à-vis du commanditaire, et disposer d’une liberté de parole. Les chercheuses et chercheurs dans la sphère académique sont dans une position favorable à cet effet.

Dans le prolongement de cette idée, le troisième apport essentiel de la recherche universitaire à l’évaluation réside dans l’autonomie de la recherche dans la définition de son agenda. Les chercheuses et chercheurs peuvent bien sûr répondre à des appels d’offres ou des commandes d’évaluation, mais elles et ils ont aussi la capacité de définir leurs propres agendas en matière de recherche évaluative, de choisir les politiques à évaluer et la façon de le faire. Ici encore, l’atout essentiel de la recherche universitaire réside dans son indépendance.

Enfin, et de façon apparemment paradoxale, la recherche a beaucoup à apporter à l’évaluation grâce à son décentrement vis-à-vis de l’action publique. Les questions posées par des commanditaires d’évaluation sont le plus souvent des questions posées à partir des politiques publiques, suivant leurs logiques et leurs objectifs. Or la plupart des recherches de sciences sociales ne portent pas sur l’action publique mais sur les gens – de mille façons différentes, qu’il s’agisse de leurs façons de raisonner, de leurs pratiques de soins, de leurs choix de scolarisation, de leur manière de s’aimer ou de se mépriser, de leurs trajectoires résidentielles… Dans ces questionnements, l’action publique est le plus souvent périphérique. Mais c’est justement parce que le questionnement n’est pas centré sur les politiques publiques qu’il permet potentiellement de saisir de façon plus juste leur effet. Tous ces travaux ont potentiellement énormément de choses à nous dire sur les effets des politiques de santé, des politiques scolaires, des politiques de lutte contre les discriminations, des politiques du logement… Sur leurs effets, dans bien des cas leurs limites, et potentiellement les façons de les améliorer. Les recherches existantes de sciences sociales ont ainsi un formidable potentiel prospectif pour l’évaluation des politiques publiques, qui reste encore très peu exploité.

Apport méthodologique, réflexivité sur les critères et les enjeux de l’évaluation, autonomie dans la définition de l’agenda évaluatif, capacité prospective : les apports potentiels de la recherche universitaire pour l’évaluation sont donc conséquents. À ce stade pourtant, ils restent pour l’essentiel à l’état de potentialité. En effet, des difficultés de part et d’autre limitent les échanges entre recherche et évaluation.

Il faut d’abord souligner que la recherche publique en France, notamment dans les sciences sociales, est exsangue. À l’Université, les enseignants chercheurs, en sous-effectif et en manque de moyens, peinent à trouver du temps pour leurs activités de recherche, sous le poids des enseignements et des charges administratives. Leur demander de s’engager dans des démarches d’évaluation est un effort supplémentaire qu’on est dès lors bien en peine d’obtenir, et c’est bien compréhensible.

Il faut aussi préciser que l’évaluation, en France, ne s’est pas institutionnalisée en tant que discipline à part entière dans le champ universitaire. Elle a pu souffrir, à cet égard, les difficultés d’institutionnalisation des initiatives interdisciplinaires dans un contexte universitaire français qui, bien qu’en transformation, reste très marqué par l’organisation en silos disciplinaires. Obstacle à l’institutionnalisation, cette nature foncièrement interdisciplinaire de la pratique d’évaluation est aussi un frein à l’investissement des chercheuses et des chercheurs dans cette démarche, dans un contexte où les logiques de carrière se déploient d’abord et avant tout au sein des différentes disciplines. Ce fonctionnement n’encourage pas les individus à développer une culture académique interdisciplinaire, mais ne les incite pas non plus à travailler avec des collègues d’autres disciplines autour de projets communs. L’organisation de l’évaluation en tant que pratique interdisciplinaire constitue donc un défi dans le monde universitaire français. Les chercheuses et chercheurs mènent des évaluations à partir de leurs disciplines respectives d’appartenance, dans lesquels la démarche d’évaluation est valorisée de manière très variable d’une discipline à l’autre – par exemple, elle l’est relativement plus aujourd’hui en l’économie ou en santé publique qu’en sociologie ou en science politique.

En effet l’évaluation n’a par ailleurs pas toujours bonne presse chez les universitaires. En tant que science appliquée, elle fait facilement l’objet de soupçons quant à son autonomie (idée de conclusions dictées par des commanditaires) et quant à son apport théorique (représentation de connaissances purement ad hoc, sans généralisation possible). Il s’agit là de préoccupations légitimes au regard des exigences et de la vocation première de la recherche universitaire en tant que démarche autonome de production de savoirs scientifiques cumulatifs et généralisables. Mais l’évaluation n’est absolument pas a priori incompatible avec ces objectifs. Des travaux menés dans un cadre de recherche évaluative peuvent tout à fait déboucher sur des connaissances scientifiques solides et de portée générale, faisant l’objet de publications évaluées par les pairs. Cela suppose toutefois de veiller aux bonnes conditions de réalisation de ces recherches évaluatives. Le LIEPP s’est ainsi doté conjointement avec d’autres acteurs universitaires de l’évaluation d’une charte de déontologie visant à garantir l’indépendance, la rigueur scientifique et la publicité des évaluations produites.

Mais le renforcement du rôle des universitaires dans l’évaluation suppose aussi que les acteurs publics jouent leur part. Il s’agit, en tant que commanditaire, d’accepter de se voir confronté à des questions qu’on n’a pas envie de se poser, à des réponses contraires à ses convictions idéologiques ou qui contrarient ses routines professionnelles, et à ce que l’ensemble de ces résultats soient publics. Tout cela suppose, politiquement, le développement d’une culture dans laquelle l’analyse transparente des enjeux et des conséquences de l’action publique soit valorisée, et dans laquelle la remise en cause ou la réorientation d’un programme sur la base des résultats d’évaluation soit considérée comme un exercice de responsabilité politique et non un échec.

Par ailleurs, du fait de l’épuisement et du sous-financement précédemment mentionné des milieux de la recherche, on ne peut attendre que la fonction de médiation de connaissances, indispensable pour tirer parti des acquis prospectifs de la recherche pour l’évaluation, ne repose que sur des initiatives issues du monde universitaire. Les acteurs publics eux-mêmes devraient aussi investir dans le développement de ces métiers spécifiques et dans le financement des pratiques de recherche et de publication qui permettent de construire ce pont entre la recherche et l’action publique : revues systématiques de la littérature, policy briefs

Enfin, on ne saurait trop insister sur l’importance d’un renforcement des moyens de la recherche publique afin de faciliter l’investissement des chercheuses et des chercheurs dans des recherches évaluatives selon les modalités qui, comme précédemment mentionné, font tout l’intérêt des pratiques universitaires d’évaluation : autonomie et regard décentré dans la définition des questions évaluatives, développement de méthodologies systématiques, rôle prospectif.

Anne Revillard