Publié le 07.09.2022

Sommaire

Retour sur la journée de printemps du Forum national Sciences, recherche et société

S’inscrivant dans la continuité de la journée d’automne consacrée à la médiatisation de la science et aux dysfonctionnements de l’information, cette journée du 7 avril 2022, ouverte à toutes et à tous, était l’occasion pour le département des relations entre sciences et société de lancer une réflexion collective sur l’évaluation, et son utilité pour l’ensemble des acteurs, mais également sur la création d’outils permettant de mesurer et d’évaluer le niveau comme l’impact du dialogue sciences, recherche et société.

Scientifiques, communicants, médiateurs, journalistes, mais également représentants d’établissements d’enseignement supérieur ou d’opérateurs de recherche, de musées et de muséums, d’associations ou de collectivités territoriales… se sont ainsi retrouvés pour une matinée réflexive sur l’évaluation et un après-midi d’ateliers participatifs animés par le Réseau Canopé. Une forte présence qui reflète autant la diversité des protagonistes que leur mobilisation pour inventer de nouveaux points de porosité et lieux d’interface entre les espaces scientifiques, académiques et sociétaux, pour multiplier les opportunités d’interaction et de collaboration entre les producteurs, les passeurs et les "consommateurs" de science.

Une forte mobilisation pour un dialogue renouvelé entre sciences, recherche et société

Le renouvellement du dialogue entre les sciences, la recherche et la société relève d’un impératif majeur. Pour répondre aux enjeux sociétaux et démocratiques qui lui sont attachés, il doit aujourd’hui englober tout autant le partage d’une culture scientifique commune que les différents degrés de l’engagement citoyen et des sciences participatives ou l’expertise scientifique en appui à la décision publique. Pour cela, et afin de mobiliser l’ensemble des acteurs, cette ouverture se concrétise désormais dans une nouvelle politique publique œuvrant pour une "science avec et pour la société", initiée par la loi du 24 décembre 2020 de programmation de la recherche pour les années 2021 à 2030 puis par la feuille de route ministérielle présentée en avril 2021.

Toutefois, la mise en œuvre de cette politique publique, comme son appropriation par l’ensemble des acteurs et son déploiement au cœur des territoires, nécessite la création d’outils permettant de mesurer et d’évaluer le niveau comme l’impact du dialogue sciences, recherche et société. Cette évaluation devra permettre tout à la fois :

  • de quantifier et qualifier les actions conduites et en mesurer les évolutions ; 
  • d’appréhender l’efficacité des dispositifs ; 
  • d’offrir des outils de pilotage institutionnels comme opérationnels ; 
  • de permettre aux différentes catégories d’acteurs de se situer entre eux comme par rapport aux autres ; 
  • de promouvoir, enfin, une meilleure connaissance des acteurs, des actions et de leur impact, ainsi qu’une reconnaissance accrue.

L’évaluation : la prochaine étape du dialogue sciences, recherche et société

Cette nécessité apparaît d’autant plus impérieuse que l’évaluation a longtemps été l’un des points aveugles des politiques publiques en matière de culture scientifique. Dès 2001, Réal Jantzen préconisait de "mettre en place un système d'évaluation connu de tous permettant à l'État une meilleure analyse en vue d'un meilleur pilotage […] et d'autre part, une compréhension raisonnée des acteurs de la CSTI leur permettant de mieux se situer par rapport à la politique de l'État". Force est de constater que vingt ans plus tard, l’Inspection générale relevait toujours dans son rapport publié en avril 2021 "la faiblesse des outils d’évaluation et à la quasi-absence de mesure des impacts des actions conduites [sinon] l’absence d’un véritable dispositif évaluatif" mis en place par les établissements d’enseignement supérieur pour "apprécier les résultats effectivement obtenus". 

Mesurer, qualifier, quantifier, cartographier…

Mais en quoi pourrait consister l’évaluation du dialogue sciences, recherche et société ? Pour Martine de Boisdeffre, présidente de la section du rapport et des études du Conseil d’État qui ouvrait cette journée, évaluer une politique publique c’est "mesurer, observer et analyser leurs effets, pour permettre aux décideurs publics et aux citoyens de comprendre leur fonctionnement et d’apprécier leur utilité, leur efficacité, leur cohérence et leur pertinence". Une définition que l’on retrouve en filagramme dans celles construites collectivement lors des ateliers participatifs. 

Pour l’un des groupes, évaluer c’est ainsi "mesurer l'effet transformant sur la société de nos actions" ; pour un autre, c’est mener "une observation organisée consciente de ses limites, engageant une démarche de changement si nécessaire et qui implique à la fois l'observé et l'observateur" ; pour un troisième c’est "mesurer l'atteinte d'objectifs co-construits et la mise en œuvre de moyens mobilisés". Si cette évaluation peut être "inclusive, bienveillante, transparente, menée en toute objectivité, avec expertise [afin] de s’assurer que le dialogue se passe selon un principe de vases communicants dans lequel le monde de la recherche et la société co-construisent une science innovante et utile à toutes et tous" elle peut aussi être "positive, co-construite, partagée, adaptée à la diversité des objectifs, exploitable et exploitée". Surtout, elle doit "aboutir à une (ré)appropriation par chaque acteur des résultats et des préconisations formulées" mais également permettre "d'améliorer les dispositifs, de faire évoluer les acteurs, de stimuler leur créativité".

L’ensemble des participants semblent ainsi largement convaincus de l’utilité d’adopter une démarche d’évaluation que ce soit pour "connaître ses publics et leurs attentes", pour "adapter sa pratique et ses actions", pour "cordonner les différents acteurs", pour "démontrer l’impact de son travail", "donner du sens à son engagement" ou "nourrir sa réflexion". D’ailleurs, la plupart mettent déjà en œuvre des campagne d’évaluation, même si l’un des groupes souligne qu’il faudrait "sortir de l'évaluation a posteriori qui est souvent systématique", principalement sous forme d’enquêtes et de questionnaires voire d’entretiens, ou de collectes de données sur des projets financés. Ils utilisent pour cela des indicateurs mesurant – pas toujours de la même façon – la fréquentation ou la satisfaction des publics, les partages sur les réseaux sociaux ou les retombées médiatiques, le nombre acteurs impliqués et leur engagement... Ils produisent enfin des documents comme des cartographies d’acteurs sur le territoire, des rapports annuels d’activité ou des enquêtes quantitatives et qualitatives de public.

Difficultés et besoins pour déployer puis pérenniser des campagnes d’évaluation

Quant à la généralisation et à la pérennisation de l’évaluation, elles doivent assurément anticiper une série de difficultés. Celles-ci pourrait être "matérielles" : manque de compétences ou de temps au sein des structures, difficile mobilisation de moyens humains et financiers, aléas du recueil de données pertinentes ou du suivi d’un panel sur le long terme… Mais ces difficultés pourraient également être plus théoriques et toucher au partage d’une culture commune de l’évaluation, à la définition du périmètre du dialogue sciences, recherche et société ou à l’intangibilité de certains critères comme l’éveil de l’intérêt ou de la curiosité, notamment dans le temps long qui peut séparer une expérience vécue (visite d’un musée, participation à un dispositif de médiation, lecture d’un ouvrage) de sa conséquence ultérieure.