Indice
L’évaluation des politiques publiques repose sur une promesse implicite : celle de produire des connaissances objectivées permettant d’éclairer la décision, d’améliorer l’action publique et de rendre compte de l’usage des ressources collectives. Cette promesse est cependant conditionnée à l’existence de données fiables, traçables et comparables dans le temps. Or, dans de nombreux contextes administratifs, cette condition n’est pas remplie.
L’évaluation du dispositif de prise en charge des jeunes adultes âgés de 18 à 25 ans à l’aide sociale dans le canton de Genève menée par la Cour des comptes en 20251 offre un terrain empirique particulièrement fécond pour interroger cette tension. Si l’évaluation est parvenue à documenter certains aspects organisationnels et descriptifs du dispositif, elle s’est heurtée à une impossibilité structurelle de répondre à deux questions évaluatives centrales relatives au suivi des trajectoires dans une perspective longitudinale et à l’adéquation des mesures d’insertion proposée aux jeunes bénéficiaires de l’aide sociale. Cette impossibilité n’est pas due à un défaut de méthode, mais à l’absence de données suffisamment fiables.
Cet article soutient que ce type de situation doit être interprété non pas comme un angle mort de l’évaluation, mais comme un révélateur significatif. En ce sens, l’évaluation ne produit pas seulement des réponses, mais aussi – et parfois surtout – un diagnostic sur la capacité de certaines entités publiques à connaître son périmètre d’activité, à se piloter et à rendre des comptes.
Michael Scriven2 définit l’évaluation comme « la détermination systématique de la valeur ou du mérite d’un objet » (1991). Cette définition, en apparence minimaliste, est pourtant d’une grande exigence épistémologique. Elle suppose non seulement l’existence de critères d’évaluation explicites (pertinence, efficacité, efficience etc.) permettant de juger de la valeur de l’objet évalué, mais également la disponibilité d’informations empiriques susceptibles d’établir un lien intelligible entre ces critères et les caractéristiques observables de l’objet. Autrement dit, l’acte évaluatif présuppose un double ancrage : normatif, à travers la définition des critères de valeur, et empirique, à travers la production de données permettant de documenter ces critères.
Cette tension entre information et critères est au cœur des débats contemporains sur la qualité et la crédibilité de l’évaluation. Comme le souligne Scriven, l’évaluation ne consiste pas simplement à mesurer des indicateurs, mais à produire un jugement argumenté fondé sur des preuves. Or, lorsque l’information disponible est lacunaire, fragmentée ou inadaptée aux finalités évaluatives, la capacité même à formuler un jugement de valeur se trouve compromise. En l’absence d’information ou de données pertinentes, le jugement évaluatif perd son caractère systématique et tend à se transformer en appréciation subjective ou intuitive. Aussi, lorsque les critères de jugement ne sont pas suffisamment explicités, l’évaluation risque de se réduire à un simple rapport normatif, voire descriptif, et faiblement justifiable. (Donaldson, 2024). L’évaluateur est alors confronté à une situation paradoxale : il dispose d’un mandat normatif clair, mais se heurte à une impossibilité empirique de le remplir.
Dans ce contexte, l’absence d’information ne saurait être considérée comme un simple obstacle technique ou un défaut méthodologique contingent. Elle interroge plus fondamentalement les possibilités de l’évaluation en tant que pratique scientifique et administrative. En l’espèce, le manque de données révèle un problème structurel lié à l’incapacité de l’entité évaluée à produire les conditions nécessaires à son propre jugement. Les raisons en sont multiples, citons par exemple :
- Le manque de moyens administratifs et logistiques dans la gestion et le traitement de l’information servant de base au suivi des activités et à l’analyse des profils et des besoins des publics cibles ;
- Le décalage possible entre les objectifs déclarés au niveau politique et leur traduction opérationnelle.
L’évaluation met ainsi en lumière non pas l’insuffisance de ses outils, mais les limites organisationnelles de l’action publique elle-même.
Dans le champ des politiques publiques, cette tension est accrue par la complexité des dispositifs, la pluralité des objectifs et la multiplicité des acteurs. Les politiques publiques ne sont pas des programmes linéaires mais des ensembles d’actions imbriquées, ce qui rend la production heuristique particulièrement exigeante.
La littérature en évaluation distingue classiquement deux fonctions principales de l’évaluation des politiques publiques : l’obligation de rendre des comptes (accountability) et l’apprentissage organisationnel (learning) (Weiss, 1998). Dans une perspective d’accountability, l’évaluation vise à apprécier la valeur, la performance ou la conformité d’une action publique au regard d’objectifs explicites, dans une logique de justification vis-à-vis des autorités politiques, des instances de contrôle et, plus largement, des citoyens. À l’inverse, dans une perspective de learning, l’évaluation est conçue comme un outil réflexif destiné à améliorer les pratiques, à ajuster les dispositifs et à renforcer les capacités d’action des organisations publiques.
Si ces deux fonctions sont souvent présentées comme complémentaires, elles reposent sur des exigences organisationnelles communes. Dans les deux cas, l’évaluation suppose l’existence de capacités institutionnelles spécifiques permettant la production, la conservation et l’exploitation de l’information. Elle doit notamment s’appuyer sur des systèmes d’information adaptés – comprenant des bases de données structurées et consolidées, des outils de suivi des activités, ainsi que des indicateurs pertinents, fiables et comparables dans le temps. Adrian Ritz (2003) souligne l’importance de ce monitoring, lequel joue un rôle central dans la gouvernance par les résultats. Par ce moyen permanent de collecte et d’analyse d’informations, le monitoring permet de soutenir le pilotage, préparer l’évaluation et améliorer la performance administrative. À cela s’ajoute l’existence d’une culture de la documentation, entendue comme la capacité de l’organisation à consigner de manière systématique les actions entreprises, les décisions prises et les justifications associées (Weiss, 1998). Enfin, l’évaluation requiert une continuité des pratiques : elle ne peut produire des effets durables que si elle s’inscrit dans une logique de moyen et long terme, impliquant non seulement la réalisation ponctuelle de contrôles d’évaluations, mais également le suivi de leurs recommandations et la stabilisation des dispositifs d’observation.
Dans ce cadre, Cousins et Bourgeois (2014) ont montré que l’absence ou la faible qualité des données ne constitue pas seulement un problème technique ou logistique, mais le symptôme d’une faible Evaluation capacity building (ECB)3. Cette notion désigne la capacité d’une organisation à concevoir, conduire, utiliser et intégrer l’évaluation dans ses processus décisionnels (Fierro et Bourgeois, 2024). Le déficit de données ne révèle donc pas uniquement un dysfonctionnement des outils, mais une incapacité plus profonde à produire des connaissances sur sa propre action. Il traduit un déséquilibre entre les injonctions à l’évaluation et les investissements organisationnels nécessaires pour la rendre possible.
Ainsi comprise, une faible Evaluation capacity building engendre généralement des évaluations partielles ou uniquement descriptives. Ce faisant, l’organisation ne remplit ni sa fonction de redevabilité, ni sa fonction d’apprentissage. L’absence de données devient alors un indicateur négatif de maturité organisationnelle, révélant les limites structurelles du pilotage de l’action publique plutôt qu’un échec de la démarche évaluative en tant que telle. Face à ces lacunes, certaines approches – comme la theory-based evaluation (Rogers & Weiss, 2007) – incitent à élargir le type de données collectées : plutôt que de se concentrer uniquement sur les résultats mesurables, l’évaluation cherchera alors à documenter les processus, mécanismes et conditions contextuelles qui expliquent le fonctionnement d’un programme, afin de mieux comprendre pourquoi et comment il produit ses effets. Ces données peuvent être issues, par exemple, d’entretiens, d’enquêtes par sondage, de mesures statistiques, de revue de documents internes ou d’une analyse comparée.
Généralement, lorsque la littérature sur l’évaluation aborde la question des données manquantes, elle le fait sous l’angle de la recherche de solutions techniques : comment traiter l’information qui fait défaut ? Les solutions sont tournées vers des modèles statistiques pour minimiser l’impact de ces données manquantes, mais ne questionnent pas ce que l’absence de données signifie pour la qualité de l’évaluation. Ces approches sont typiques des évaluations en santé publique ou dans le domaine de l’éducation (Pigott, 2010).
L’analyse des risques que réalise régulièrement la Cour des comptes l’a conduite à s’intéresser à la problématique du nombre croissant de jeunes adultes âgés de 18 à 25 ans à l’aide sociale dans le canton de Genève. Les analyses préliminaires menées par la Cour ont mis en évidence l’importance de mieux connaître cette population à travers l’évolution de leurs profils sociodémographiques, leurs besoins et les enjeux liés à leur prise en charge au sein de l’entité Point Jeunes de l’Hospice général4.
Les jeunes adultes bénéficiaires de l’aide sociale représentent une population particulière, souvent exposée à la précarité en raison d’un passage à la majorité difficile (formation, vie professionnelle, emploi, famille).
L’objectif général de cette mission a été d’analyser dans quelle mesure la prise en charge des jeunes adultes bénéficiaires de l’aide sociale répond et s’adapte à l’évolution des besoins. Pour ce faire, la Cour s’est principalement intéressée à mieux comprendre les profils, les problèmes rencontrés et les trajectoires des jeunes adultes à l’aide sociale, ainsi que les mesures d’insertion qui leur sont proposées.
Afin de réaliser sa mission d’évaluation, la Cour a appliqué un dispositif d’analyse en trois modules :
- Sur la base des données socio-démographiques transmises par l’Hospice général, la Cour a réalisé des statistiques descriptives sur une période de dix ans, de 2015 à 2024, contribuant ainsi à mieux comprendre les caractéristiques des jeunes à l’aide sociale et leur évolution dans le temps.
- Pour compléter les données à disposition, la Cour a recueilli des informations supplémentaires à partir des journaux de bord servant de suivi à l’accompagnement des jeunes adultes à Point Jeunes. La Cour a notamment recensé les problèmes rencontrés par les jeunes (financier, rupture familiale, rupture scolaire, endettement, addiction etc.), les mesures d’insertion suivies, ou encore le nombre d’intervenants sociaux rencontrés au fil de la prise en charge. Pour ce faire, elle a constitué un échantillon aléatoire de 158 nouveaux dossiers parmi les jeunes âgés de 18 à 20 ans ayant bénéficié d’une prise en charge d’au moins deux ans, réparti sur trois périodes distinctes (2015 ; 2019 ; 2023).
- Pour tenter de mesurer l’efficacité du dispositif mis en place, la Cour a analysé la durée de prise en charge de trois cohortes de jeunes adultes en sélectionnant aléatoirement 306 répartis proportionnellement sur trois périodes distinctes (2015 ; 2018 ; 20215). Deux indicateurs ont été élaborés :
- La durée (en mois) du premier épisode de prise en charge ;
- Les taux de sortie calculés sur quatre échéances (6, 12, 18 et 24 mois).
Par ailleurs, la Cour a mené une soixantaine d’entretiens, dont une quarantaine avec les acteurs de terrain.
Si les enjeux organisationnels liés à la prise en charge ont pu être abordés par des méthodes qualitatives, les analyses sur les trajectoires et les problèmes rencontrés supposaient l’existence de données consolidées. Or, ces informations ont fait défaut.
Les évaluateurs de cette mission ont dès lors identifié une impossibilité empirique : l’objet évalué ne produit pas les informations nécessaires à son propre jugement. L’erreur parfois commise par les spécialistes de l’évaluation est d’être amené à penser à une erreur méthodologique. Or, il est central de faire la distinction entre l’erreur méthodologique et l’impossibilité empirique. Comme le rappelle Vedung (2010), toute évaluation est limitée par ce que le programme rend observable. Lorsque l’observabilité est structurellement absente, l’évaluation révèle une déficience du pilotage, et non du dispositif élaboré par l’évaluateur.
Michael Power, dans The Audit Society (1997), explique que les pratiques d’audit et d’évaluation ne servent plus seulement à contrôler, mais deviennent un mode central de gouvernance, parfois au détriment du sens réel du travail. Il dénonce la prolifération des outils de reporting, qui souvent ne garantissent en rien la production de connaissances utiles. Découlant directement des pratiques du New Public Management6, de nombreuses administrations publiques produisent en continu des tableaux de performance, plans d’action, indicateurs de qualité et comptes rendus d’activité intermédiaires, et finaux. Parfois même, chaque direction interne exige ses propres formats et échéances, générant une superposition de dispositifs de contrôle (controlling).
Cette multiplication des outils et contrôles donne l’impression d’un pilotage renforcé, mais les données collectées sont rarement analysées de manière intégrée ou transformées en véritables leviers d’amélioration. Elle contribue surtout à alourdir les charges administratives des agents, au détriment de la réalisation effective des missions de service public (Power, 1997).
Dans le cadre de l’évaluation de la prise en charge des jeunes adultes, les systèmes d’information existent, mais ils sont fragmentés, hétérogènes et orientés vers la gestion administrative – généralement devant répondre à l’urgence – plutôt que vers l’analyse stratégique. Ils ne sont pas paramétrés pour renseigner et extraire des données utiles au suivi des activités. Dans le cas analysé par la Cour, le logiciel métier utilisé par les travailleurs sociaux pour renseigner le suivi des bénéficiaires fonctionne à la manière d’un journal de bord (comptes-rendus d’entretien périodique) complété au fur et à mesure de la prise en charge. Sous la forme d’un champ texte, l’information recueillie « raconte » l’histoire du bénéficiaire, mais ne permets pas d’extraire et d’agréger des informations pour identifier, par exemple, les causes de l’entrée à l’aide sociale et les problèmes rencontrés par les bénéficiaires.
Autrement dit, l’organisation saisit des informations et produit des données qui ne sont pas exploitables pour évaluer et orienter l’activité de l’institution.
La multiplicité des intervenants et des niveaux d’action produit un phénomène bien documenté en sociologie de l’action publique : la dilution de la responsabilité. Lorsque la prise en charge d’un public cible repose sur une pluralité d’acteurs – services administratifs, professionnels du social, prestataires externes, partenaires institutionnels – sans mécanisme clair de coordination, la responsabilité devient distribuée, partagée et, in fine, difficilement localisable. L’action publique se fragmente en séquences décisionnelles et opérationnelles qui relèvent de logiques différentes, parfois concurrentes, et rarement intégrées. Comme l’ont montré Crozier (1963), puis Lascoumes et Le Galès (2004), la complexité organisationnelle ne se réduit pas à une description structurelle des administrations. Des travaux récents révisent cette intuition à l’aune de la théorie de policy fragmentation ou de celles des systèmes complexes et de l’accountability en soulignant que cette organisation fragmentée affecte directement la capacité de l’État à agir, à décider et à rendre des comptes (Rajala, 2025 ; Jalonen 2025 ; Dulabić, 2026).
Dans le cas genevois, cette fragmentation se traduit concrètement par l’absence d’un référent clairement identifié responsable d’un parcours de jeune adulte sur la durée. En effet, le rapport analyse le nombre de personnes qui interviennent dans le parcours d’un jeune adulte et les chiffres sont notables. L’analyse de 158 dossiers issus d’un échantillon aléatoire constitué par la Cour met en évidence que, pour la période 2014–2015, environ 44% des jeunes adultes rencontrent généralement entre un et quatre intervenants, tandis que 56 % en rencontrent entre cinq et onze durant leur parcours de prise en charge. Cette situation tend toutefois à évoluer au fil du temps : les échantillons relatifs aux périodes 2018–2019 et 2022–2023 présentent des proportions plus élevées de jeunes n’ayant été en contact qu’avec un à quatre intervenants, et, corrélativement, une plus faible part de ceux ayant rencontré entre cinq et onze intervenants. Ces évolutions s’expliquent principalement par des durées d’observation plus courtes pour les périodes récentes.
De même, la prise en charge de ces jeunes bénéficiaires de l’aide sociale est répartie entre plusieurs entités, chacune étant localisée à différents endroits du canton et disposant de ses propres outils et priorités. Les jeunes sont parfois « ballotés » entre l’Hospice général, L’Antenne Cap formations7, Qualife (programme JAFA)8, l’office de l’assurance invalidité ou encore l’office régional de placement (Figure 1). Ils se voient ainsi proposer une succession de mesures sur plusieurs années qui fragmentent leur prise en charge et questionnent l’efficacité de celle-ci.
La Cour des comptes souligne explicitement que cette organisation empêche la construction d’une vision globale et continue des trajectoires. Les jeunes passent d’un dispositif à un autre, d’un interlocuteur à un autre, sans qu’aucune instance ne porte la responsabilité de la coordination de la prise en charge. La conséquence est double : les bénéficiaires peuvent expérimenter des ruptures de prise en charge et l’Hospice n’est pas en mesure de documenter et de comprendre ce qui se passe réellement dans ces parcours : « elle perd le fil » face à une hétérogénéité des pratiques de référencement dans le dossier du jeune par les assistants sociaux.
Cette situation renvoie à une caractéristique structurelle de l’action publique contemporaine : elle est polycentrique. Or, le polycentrisme organisationnel (Ostrom, 2010), s’il n’est pas structuré par des mécanismes clairs de coordination et de responsabilité, engendre ce que certains auteurs qualifient de responsibility voids – des zones institutionnelles où personne n’est véritablement responsable, où tous le sont un peu, ce qui revient au même. Ce phénomène n’est pas seulement problématique d’un point de vue opérationnel ; il l’est aussi du point de vue évaluatif. En l’absence d’un acteur responsable de la cohérence globale du dispositif, il devient pratiquement impossible de reconstituer l’enchaînement des décisions, de vérifier la pertinence des choix opérés, ou d’attribuer des effets à des interventions spécifiques.
La fragmentation organisationnelle produit également une fragmentation du savoir. « Chaque partie prenante possède une pièce du puzzle, mais personne n’a une vision globale ». L’information ne circule pas, ou mal.
Figure 1 : Représentation schématique d’un « ballotage » entre Point Jeunes et l’antenne Cap formations

Source : journaux de bord Hospice général, 2025
Analyse : CDC, 2025
Analyse de cas
Pierre* est entré à Point Jeunes en octobre 2014, à l’âge de 18 ans. Il vit chez son père depuis la séparation de ses parents. Après son expérience au Centre de transition professionnelle (CTP) à 16 ans et demi, il cherche du travail. À son arrivée à Point Jeunes, il lui est proposé de suivre le semestre de motivation (SeMo), dispositif aujourd’hui appelé ForMe, mis en place par la Croix-Rouge en partenariat avec l’OCE. Dans ce cadre, Pierre bénéficie d’une aide financière et effectue successivement deux stages, en boulangerie et dans une crèche. À l’issue du programme, il cherche un apprentissage, sans succès. Il est alors orienté vers l’antenne Cap Formations en novembre 2015 où la mesure Réalise lui est proposée, qu’il interrompt à la suite d’une blessure à la main. Découragé, il manque de régularité dans ses rendez-vous avec l’assistante sociale. En novembre 2016, son suivi à Cap Formations est clôturé en raison d’un manque de motivation et d’implication. Un suivi psychologique est mis en place auprès de la structure JADE. Par la suite, la situation de Pierre se dégrade : il est interpellé par la police à la suite d’une dispute sur la voie publique et condamné à trois ans de peine privative de liberté avec bracelet électronique ; il perd sa grand-mère ; ses dettes s’accumulent. En décembre 2018, il est de nouveau orienté vers Cap Formations et intègre la mesure EVASCOL. Il tente plusieurs stages mais abandonne rapidement. Dans le même temps, ses relations familiales se détériorent, notamment avec sa mère, et il exprime le souhait de trouver un logement. En octobre 2021, Pierre a presque 25 ans : son dossier est transféré dans un centre d’action sociale (CAS). La situation se complique encore lorsque son père est expulsé de son logement pour défaut de paiement. Pierre devient père de deux enfants. Une aide au logement lui est attribuée, mais une inspection des assistants sociaux révèle que le logement occupé est insalubre. En juillet 2025, Pierre est toujours suivi à l’aide sociale.
*Prénom d’emprunt
Dès lors, l’évaluation se trouve confrontée non seulement à une insuffisance de données, mais à une impossibilité structurelle de reconstruire le fil des décisions et des actions. Ce qui manque n’est pas uniquement une base de données consolidée ; c’est aussi un centre de coordination institutionnelle de suivi du bénéficiaire.
L’impossibilité d’évaluer devient ainsi le reflet de l’action publique elle-même : dispersée, peu ou pas documentée et difficilement responsable devant ses résultats.
Les dispositifs d’accompagnement social se sont construits autour de la gestion individualisée des situations (réponse – parfois urgente – à des besoins spécifiques, adaptation à chaque cas), non pour la production de données agrégées et d’indicateurs quantifiables. Sager, Mavrot & Keiser (2024) soulignent notamment que les objectifs politiques généraux se heurtent aux pratiques concrètes de terrain. Dans la même veine, la théorie du street-level bureaucracy de Lipsky (1980) souligne que la mise en œuvre des politiques publiques se joue au niveau des acteurs de terrain (travailleurs sociaux, agents publics, éducateurs, etc.). Ceux-ci disposent d’une forte marge de discrétion, adaptent les règles aux situations concrètes et arbitrent sous contraintes (temps, ressources, complexité des cas). Cette logique priorise le traitement individualisé, la réactivité et la gestion pragmatique des situations. Ainsi, cette marge de discrétion des acteurs de terrain, inévitable en pratique et structurellement nécessaire, est à prendre en compte dans toute démarche évaluative. Si celle-ci peut orienter ou encadrer cette marge de manœuvre, elle ne saurait se substituer au jugement professionnel exercé sur le terrain.
L’évaluation menée par la Cour exemplifie également ce phénomène :
Premièrement, la Cour relève que le système d’information n’est pas conçu pour une lecture agrégée des situations. Les journaux de bord, outils centraux de suivi, sont rédigés sous forme narrative et hétérogène ; ils ne comportent pas de champs structurés permettant une exploitation statistique. Les informations essentielles – problèmes rencontrés, mesures engagées, motifs d’entrée et de sortie – sont disséminées sur plusieurs dizaines de pages, rendant impossible toute extraction fiable et systématique. Dès lors, les professionnels disposent d’outils adaptés à l’accompagnement individuel, mais l’institution dans son ensemble se prive de la capacité d’agréger ces informations pour comprendre et piloter de manière pertinente son action.
Deuxièmement, la Cour constate l’absence de consolidation des données relatives aux mesures d’insertion : il n’existe pas de statistiques fiables sur le nombre de mesures effectivement réalisées, les taux d’achèvement, les abandons, ou la réaffectation des places. Même lorsque certaines informations existent dans les dossiers individuels, elles ne sont ni harmonisées ni exploitées à l’échelle du dispositif. Les indicateurs prévus contractuellement ne font pas l’objet d’un controlling systématique. Cela démontre que la finalité première des dispositifs n’est pas de produire de la connaissance sur eux-mêmes, mais d’assurer une gestion opérationnelle au cas par cas.
Troisièmement, ces limites constatées empêchent non seulement le suivi collectif, mais également la reconstitution des trajectoires individuelles, pourtant indispensable pour réconcilier la déclinaison des politiques sociales aux besoins des bénéficiaires. La Cour indique explicitement qu’elle n’a pas pu retracer de manière satisfaisante les parcours (durée de l’aide, retours, sorties) ni obtenir des données exploitables sur les listes d’attente ou les abandons. La prise en charge fonctionne en tant qu’activité quotidienne et opérationnelle ; elle échoue dès lors qu’il s’agit de produire de la connaissance utile au pilotage stratégique de l’action de l’institution.
Enfin, l’évaluation de la Cour met en lumière un dernier élément essentiel : la coexistence de multiples outils, parfois personnels, parfois manuscrits, parfois totalement déconnectés du système officiel, confirme que les pratiques professionnelles se structurent autour du souci d’aider au mieux les jeunes, non autour du souci de rendre cette aide évaluable ou parfois même de prendre le temps de comprendre l’importance du respect de certaines règles, par exemple celle de la protection des données personnelles. La Cour montre que des services refusent même d’enregistrer certaines catégories de bénéficiaires dans l’outil métier afin d’en préserver l’anonymat, ce qui inscrit structurellement le dispositif au service du travail social, et non comme un outil de pilotage et de production d’information évaluative.
Ainsi, cette évaluation constitue une démonstration empirique contemporaine des arguments de Sager, Mavrot & Keiser (2024) : ce ne sont pas les dispositifs évaluatifs qui sont insuffisants, mais la nature même de l’action publique dans le champ du social qui résiste à sa propre objectivation. Les dispositifs sont faits pour gérer les vies, non pour produire des données. L’évaluation révèle alors moins une défaillance méthodologique qu’une tension structurelle constitutive des politiques sociales. Autrement dit, cette logique de terrain (gestion des cas, réponse aux cas individuels, réponses adaptées à chaque situation) entre en tension avec la logique administrative (rendus de statistiques quantitatives, pilotage par les résultats ou results-based management) (Cousins & Earl, 1995).9
Les théories du non-savoir considèrent que l’ignorance n’est pas seulement l’absence de données, mais un phénomène socialement et institutionnellement construit. L’agnotologie (Proctor & Schiebinger, 2008) montre, par exemple, comment les industries du tabac ont produit délibérément de l’ignorance scientifique sur les risques du tabac pour retarder la régulation. L’épistémologie de l’ignorance (Alcoff, 2007 ; Mills, 2007) met en lumière, par exemple, comment les institutions peuvent invisibiliser, presque ignorer les savoirs des minorités, produisant un manque de connaissance structurelle qui influence la prise de décision. Appliqué à l’évaluation, ce cadre illustre que le non-savoir évaluatif peut résulter non d’un simple déficit technique, mais aussi de pratiques organisationnelles et de priorités institutionnelles intentionnelles qui déterminent ce qui est mesurable et ce qui reste invisible.
Cette contribution propose de conceptualiser le non-savoir évaluatif – que l’on pourrait également appeler l’ignorance évaluative – comme une catégorie analytique à part entière. Il ne s’agit pas d’un vide, mais d’un indicateur lié à la capacité institutionnelle. À l’instar des indicateurs de risque en audit financier, l’absence de données fiables constitue un signal d’alerte sur la soutenabilité du dispositif évalué.
Problème démocratique
Dans une perspective normative, l’impossibilité de démontrer l’adéquation, l’efficacité ou l’équité d’une politique publique constitue un problème démocratique fondamental. Les régimes démocratiques modernes reposent sur une double exigence : la légitimité procédurale (l’action publique repose sur des bases décisionnelles reconnues comme légitimes) et la légitimité de performance (l’action publique est capable de produire des résultats pertinents et démontrables) (Behn, 2003 ; Peters, 2010). Or, lorsqu’une administration n’est pas en mesure de produire les informations permettant d’évaluer ses propres dispositifs, ces deux dimensions sont fragilisées.
Une impossibilité à rendre des comptes
En principe, trois conditions doivent être remplies par l’entité étatique afin de pouvoir être responsable (accountable) : 1) une action publique est menée ; 2) celle-ci doit être décrite et documentée ; 3) elle doit pouvoir être jugée sur la base de critères explicites (efficacité, efficience, pertinence etc.) (Bovens, 2007 ; Mulgan, 2000).
Lorsque les données sont absentes, incomplètes ou inexploitables, seule la première condition est remplie : l’État agit, mais il est incapable de démontrer ce qu’il fait, pourquoi il le fait, et avec quels effets. La responsabilisation de l’action publique devient alors formelle plutôt que substantielle : l’État ne rend pas compte de ses résultats, mais seulement de son existence organisationnelle. On rejoint ici les analyses de Bovens sur la notion de redevabilité (accountability) : sans information vérifiable, la démarche qui consiste à rendre des comptes n’est plus qu’un rituel institutionnel.
Dans le cas genevois, cette impossibilité ne relève pas d’un refus politique de rendre compte, mais d’une incapacité informationnelle : l’État ne peut pas démontrer ce qu’il prétend faire pour les jeunes adultes à l’aide sociale, rendant alors complexe le contrôle démocratique.
Une atteinte à la promesse de l’État responsable
Les démocraties contemporaines se caractérisent par une injonction croissante à la politique fondée sur les preuves (evidence-based policy, de Cartwright & Hardie, 2012). L’incapacité à produire ces preuves remet en question cette promesse. On bascule d’un État responsable et démonstratif vers un État opérateur et opaque, capable d’agir mais incapable de se penser et de se faire juger.
Le non-savoir évaluatif met ainsi en évidence une fragilité institutionnelle, un symptôme d’affaiblissement démocratique et une limite matérielle à l’État de droit. Cette étude de cas met en lumière un type particulier de déficit informationnel, lié aux limites administratives et logistiques de la récolte et du traitement de l’information, à l’éclatement organisationnel de l’entité et à l’ethos professionnel des acteurs de terrain. Il serait pertinent que de futures recherches explorent d’autres formes possibles de déficit informationnel, pouvant découler, par exemple, d’un manque de moyens, de conflits d’implémentation ou d’autres facteurs contextuels.
À partir de cette analyse, les auteurs proposent plusieurs principes méthodologiques qui peuvent guider ou accompagner les évaluateurs, auditeurs et institutions de contrôle :
| Principes | Actions | |
| 1 | Réflexivité | Toute impossibilité de répondre à une question évaluative doit être analysée de manière explicite et argumentée, afin de comprendre les limites de connaissance révélées par le dispositif. |
| 2 | Identification des causes | L’absence de données doit être moins interprétée comme un échec de l’évaluation elle-même, mais plutôt comme un indice de faiblesse évaluative ou de déficit du dispositif évalué. |
| 3 | Traçabilité minimale | La capacité à documenter de manière systématique les parcours, décisions et actions doit être considérée comme un critère central de l’« évaluabilité ». |
| 4 | Identification des implications du non-savoir | Le non-savoir n’est jamais neutre ; il entraîne des implications démocratiques qui doivent être reconnues et prises en compte dans l’analyse. |
| 5 | Recommandation structurelle | Le non-savoir constitue en soi un signal justifiant des recommandations visant à améliorer les systèmes d’information, les pratiques organisationnelles et la gouvernance. |
Source : Auteurs, 2026
L’évaluation devient ainsi un outil pour révéler les limites de connaissance, orienter la gouvernance et renforcer la responsabilité démocratique.
L’évaluation publique est souvent perçue comme un outil destiné à produire des réponses claires et des indicateurs de performance. Cependant, le cas étudié montre qu’elle peut se révéler particulièrement précieuse lorsqu’elle met en lumière les limites de la connaissance institutionnelle. Le non-savoir évaluatif ne doit pas être interprété comme un simple « résidu » méthodologique ni comme un échec à masquer, mais comme un diagnostic révélateur de l’état de l’action publique, de ses capacités informationnelles et de sa gouvernance.
Ce que nous avons proposé d’appeler le non-savoir évaluatif est un résultat en lui-même, porteur d’informations critiques sur l’état de l’action publique, la maturité des organisations et la qualité de leurs infrastructures informationnelles.
Reconnaître ce non-savoir comme sujet analytique oblige à déplacer le regard. L’échec apparent de l’évaluation n’est pas d’abord celui des évaluateurs, ni seulement celui des outils. Il révèle une dimension plus profonde : la capacité – ou l’incapacité – d’une administration à documenter, tracer et rendre compte de ce qu’elle fait réellement. Or, dans des contextes marqués par une exigence croissante de responsabilité, par la judiciarisation progressive de l’action publique (Byland & Varone, 2012) et par l’idéologie de la politique fondée sur la preuve, ne pas pouvoir « démontrer » revient pratiquement à ne pas pouvoir justifier. L’absence de données fiables n’est pas anodine ; elle est un signal critique sur la robustesse de la gouvernance publique, sur la soutenabilité des dispositifs et, ultimement, sur la solidité démocratique de l’État.
Reconnaître et analyser ces zones d’incertitude dépasse les seules considérations scientifiques de la démarche évaluative, et constitue un enjeu démocratique majeur dans un contexte où l’action publique est soumise à des exigences accrues de redevabilité.
Madame Laetitia Mathys est évaluatrice expérimentée à la Cour des comptes du canton de Genève. Elle est titulaire d’un doctorat en administration publique de l’Institut de Hautes études en administration publique (IDHEAP) de l’Université de Lausanne (UNIL).
Monsieur Pierre-Alain Roch est responsable de mission à la Cour des comptes du canton de Genève. Il est titulaire d’un doctorat en sciences sociales de l’institut des sciences sociales de l’Université de Lausanne (UNIL).
- Alcoff, L. (2007). Epistemologies of Ignorance. Routledge.
- Behn, Robert D. (2003) – Why measure performance? Harvard Kennedy School Press.
- Bouckaert, G./Peters, B. G. (2002). Performance Measurement and Management: The Achilles’ Heel in Administrative Modernization. Public Performance & Management Review.
- Bovens, M. (2007). Analysing and assessing accountability: A conceptual framework. European Law Journal, 13(4), 447–468.
- Byland, K./Varone, F. (2012). Judiciarisation de l’action publique en Suisse: analyse du contentieux administratif au Tribunal fédéral. Swiss Political Science Review.
- Cousins, J. B./Bourgeois, I. (2014). Organizational Capacity to Do and Use Evaluation. New Directions for Evaluation.
- Cartwright, N./Hardie, J. (2012). Evidence-Based Policy: A Practical Guide to Doing It Better. Oxford University Press.
- Crozier, M. (1963). Le phénomène bureaucratique. Paris : Seuil.
- Donaldson, S. (2024). The Importance of Conceptualizing Evaluation as a Transdiscipline: Honoring Michael Scriven’s Legacy. Journal of MultiDisciplinary Evaluation, 20(47), 7–9.
- Đulabić, V. (2025). Public administration complexity and its implications on theory, research and practice. Studia Iuridica Lublinensia, 34(1), 53–71.
- Fierro, A. Leslie/Bourgeois, I. (2024). Exploring the Edges : Identifying the Next Generation of Evaluation Capacity Building Research and Practice Through Adjacency. Canadian Journal of Program Evaluation, Volume 38, No. 3
- Hood, C. (1991). A Public Management for All Seasons? Public Administration.
- Jalonen, H. (2025). A complexity theory perspective on politico-administrative systems: Insights from a systematic literature review. International Public Management Journal, 28(1), 1–21.
- Lascoumes, P./Le Galès, P. (2004). Gouverner par les instruments. Paris : Presses de Sciences Po.
- Mills, C. W. (2007). White Ignorance. In Race and Epistemologies of Ignorance. State University of New York Press.
- Mulgan, R. (2000). Accountability: An ever-expanding concept? Public Administration, 78(3), 555–573.
- Patton, M. Q. (2008). Utilization-Focused Evaluation. Sage.
- Peters, B. G. (2010). The politics of bureaucracy: An introduction to comparative public administration (7th ed.). London: Routledge.
- Pigott, T. D. (2001). A Review of Methods for Missing Data. Educational Research and Evaluation, 7(4), 353–383.
- Pollitt, C. (2013). The Logics of Performance Management. Evaluation.
- Power, M. (1997). The Audit Society: Rituals of Verification. Oxford University Press.
- Proctor, R./Schiebinger, L. (2008). Agnotology: The Making and Unmaking of Ignorance. Stanford University Press.
- Rajala, T./Jalonen, H. (2025). Beyond simplification in public sector accountability: Contradictions between principal-agent and complexity theories. Public Administration Review.
- Ritz, A. (2003). Evaluation von New Public Management: Grundlagen und empirische Ergebnisse der Bewertung von Verwaltungsreformen in der schweizerischen Bundesverwaltung, Haupt Verlag, Berne.
- Rogers, P. J./Weiss, C. H. (2007). Theory-based evaluation: Reflections ten years on: Theory-based evaluation: Past, present, and future. New directions for evaluation.
- Sager, F./Mavrot, C./Keiser, L. R. (Eds.). (2024). Handbook of public policy implementation. Cheltenham, UK: Edward Elgar Publishing.
- Scriven, M. (1991). Evaluation Thesaurus. Sage.
- Vedung, E. (2010). Four Waves of Evaluation Diffusion. Evaluation.
- Weiss, C. H. (1998). Evaluation: Methods for Studying Programs and Policies. Prentice Hall.
- 1 Évaluation de la prise en charge des jeunes adultes à l’aide sociale, rapport n°200, 4 décembre 2025, Cour des comptes du canton de Genève : https://cdc-ge.ch/publications/n-200-evaluation-de-la-prise-en-charge-des-jeunes-adultes-a-laide-sociale/.
- 2 Michael Scriven (1928–2023), auteur académique australien, principalement connu pour ses apports théoriques à la définition de l’évaluation des politiques publiques.
- 3 En français, « le renforcement des capacités en évaluation (RCE) ».
- 4 L’Hospice général est un établissement public autonome. Il est le principal organe d’exécution de la loi cantonale sur l’aide sociale et la lutte contre la précarité (LASLP), sous la surveillance du département de la cohésion sociale (DCS).
- 5 La dernière période analysée s’est arrêtée à l’année 2021 afin d’avoir un champ temporel suffisant pour mesurer la durée de l’aide.
- 6 Le New Public Management (NPM) désigne les réformes administratives apparues dès les années 1980 qui importent dans le secteur public des principes issus du management privé : culture du résultat, évaluation par indicateurs, logique de performance, contractualisation, concurrence interne et responsabilisation des managers. Pensé pour rendre l’État plus « efficace », il transforme profondément les administrations : pilotage par objectifs, développement du reporting, montée des dispositifs d’audit et de contrôle, parfois au détriment du sens des missions et des logiques professionnelles propres au service public : Hood C. (1991). A public Management for All Seasons ? Public Administration, 69 (1), 3–19
- 7 Cette antenne offre aux jeunes de 18 à 25 ans, sans diplôme, le soutien nécessaire à une réinsertion dans une formation qualifiante. Les missions de l’antenne sont l’accompagnement vers la formation et la collaboration avec les autres acteurs de l’insertion socioprofessionnelle des jeunes dans le canton de Genève. Contrairement aux autres équipes de Point Jeunes, Cap formations se situe dans les locaux de l’office cantonal pour l’orientation, la formation professionnelle et continue (OFPC).
- 8 Créée en 2014, cette fondation genevoise s’adresse aux jeunes de moins de 25 ans sans formation ni emploi pour les accompagner vers une formation professionnelle ou un apprentissage, ainsi qu’aux personnes de 50 ans et plus, pour les aider à retrouver un emploi ou reconquérir leur employabilité. Le dispositif JAFA pour « Jeunes adultes en formation et actifs » a été lancé en octobre 2024 à Genève pour aider les jeunes adultes en rupture de formation à se réinsérer dans un parcours de qualification, par une bourse de préformation, un coaching intensif et individualisé et des programmes de remobilisation.
- 9 Cousins/Earl (1995), The Case for Participatory Evaluation in Social Programs.