Evaluation des PEdT : enjeux et problématiques

Intervention d’Yves Fournel (PoLoc-IFE/ENS de Lyon) à l'Ecole Supérieure de l’Education Nationale, de l’Enseignement Supérieur et de la Recherche (mercredi 6 mai 2015)

Texte disponible en version pdf

1. Préambule 


L’observatoire des politiques éducatives locales et de la réussite éducative, créé en juillet 2013 au sein de l’IFE et donc de l’ENS de Lyon en lien avec l’UMR Triangle, a dans ses objectifs et ses missions de travailler sur l’évaluation des PEDT/PEL en lien avec ses partenaires et les collectivités.

Il s’agit pour nous d’observer et de questionner les pratiques et/ou les intentions en la matière à la lumière des travaux scientifiques et du travail déjà engagé sur les PEL ou PRE existant avant la réforme, avec l’aide de notre conseil scientifique.

Ce travail est en cours. Je ne livrerai donc pas de conclusions mais plutôt un questionnement et des pistes de travail.

L’observatoire ne prétend pas faire une étude exhaustive mais s’appuie sur des campagnes d’observations de terrain en Ariège et dans les Landes et sur l’analyse de 95 PEDT de 12 régions et 45 départements répartis en 5 strates (grandes villes, villes moyennes, rurbain, banlieues et rural).
Le travail de terrain va se poursuivre en Seine Saint –Denis, Métropole de Lyon et Nouveau Rhône.

CONSTATS
Je ne vous étonnerai pas en constatant une très grande diversité sur les PEDT consultés, sur les organisations horaires, les structurations, le rapport aux associations et clubs sportifs, les modes de pilotage, la place des enfants et des parents ou les contenus des projets éducatifs.
On pourra cependant sans doute les regrouper en 4 ou 5 situations types.
Mais, je vous renvoie pour le moment aux rapports du CNSRRS, voire aux différentes enquêtes publiées car ce n’est pas mon sujet d’intervention qui porte sur l’évaluation des PEDT.

On peut constater que la qualité des projets dépend souvent de l’antériorité des politiques locales et des actions éducatives antérieures à la réforme, de l’existence d’un PEL ou d’un CEJ et donc du partenariat déjà en place.
Mais, même pour ces collectivités déjà engagées, l’existence d’une démarche d’évaluation et son degré de développement sont très variables. 

En fait, on constate :
- qu’un faible nombre de démarches d’évaluation sont construites même si la plupart des PEDT déclarent des intentions très générales.
- que la quasi-totalité l’évoque comme mission et objectif du comité de pilotage généralement mis en place, avec plus rarement un groupe de travail dédié.
- qu’une minorité ont défini des indicateurs en petit nombre, essentiellement quantitatifs sur les effectifs, la fréquentation par activité et tranches horaires, les thèmes des actions menées, le nombre de réunions et les participants, …
- que l’autre dimension présente est le recueil des ressentis et des avis des parents, des enseignants et des animateurs, les taux de satisfaction sur les activités, les points de vue sur le bien-être, les comportements, la fatigue, la capacité d’attention des enfants, sont examinés, dans le meilleur des cas.
- L’ambition la plus courante est de « mesurer » le degré « d’efficacité » au sens de la concrétisation des objectifs opérationnels décrits dans le PEDT initial.
- Sauf exception, on est plutôt dans la réalisation de « bilans » datés à un moment donné, et non d’une véritable évaluation.
- Même dans les cas où une véritable démarche d’évaluation est amorcée, il est très rare qu’elle porte au-delà des activités périscolaires sur l’approche de la réussite éducative et/ou scolaire.
- Il n’y a que fort peu de travail prévu sur les contenus et apprentissages, les pratiques professionnelles. La seule entrée significative évoquée sur les contenus passe par les parcours éducatifs thématiques quand ils existent.
- La présence d’associations d’éducation populaire contribue bien en général à l’existence et la qualité des évaluations à partir de leur expérience et de la qualification de leurs responsables sur les démarches projet.

Les modalités se résument souvent à la réalisation de fiches-bilans des actions, à des enquêtes par questionnaire aux parents ou à des réunions d’acteurs, à la confrontation des avis des partenaires locaux.

Souvent, il est donc fait état d’un bilan dans les projets connus. Mais ces bilans ne portent que sur le dispositif lui-même, son fonctionnement, les rapports entre acteurs, le nombre d’enfants ou jeunes impliqués. Mais, ils ne peuvent pas être une évaluation des effets et impacts des PEDT sur la réussite éducative des enfants ou des jeunes.

Ces démarches ont cependant permis d’identifier des problèmes et des besoins d’évolution et ont entraîné des modifications des projets initiaux de la première vague de 2013. Cela renforce le besoin d’un suivi dès le début de ces projets, de ces démarches.

Et, la très grande majorité des collectivités ont de toute façon été confrontées à « l’urgence » de la mise en place de la réforme avec une très grande diversité dans le degré de concertation préalable.
Le PEDT a été très souvent abordé seulement en termes d’horaires et d’organisation d’activités périscolaires.
Il faut aussi avoir conscience que dans les contextes budgétaires actuels, les moyens disponibles pour ces évaluations, même dans les villes grandes et moyennes, se réduisent (appel moindre à des cabinets extérieurs ou à la recherche) et poussent ou devraient pousser à mettre en place des démarches internes coopératives et à investir sur les outils, à organiser des temps de retour sur pratique et d’analyse partagée des difficultés rencontrées. La mutualisation des réflexions et l’accompagnement sont d’autant plus importants. Il s’agira souvent d’autoévaluation.

Dans la réalité, on en est encore à l’année 0 de l’évaluation des PEDT et il est donc à la fois nécessaire et possible d’organiser l’accompagnement des équipes d’acteurs et des élus, leurs formations, des réflexions sur les « référentiels » à mettre en place. Surtout si on prend en compte l’écart entre les 8 000 PEDT en 2014/2015 et l’objectif de généralisation à la rentrée 2015 à 22 000 communes ayant une école.

  • Nous voulons donc interroger la pertinence et les évolutions souhaitables des démarches et/ou outils, mis en place ou évoqués pour l’évaluation. Comme pour les PRE, nous chercherons aussi à vérifier ou infirmer le besoin de références ou de cahier des charges mutualisés, d’un outil ou d’une démarche d’évaluation. 
  • Nous cherchons donc plutôt à interroger le sens, les objectifs, l’efficience, la pertinence, la durabilité ou la synergie développée dans les projets que seulement l’efficacité apparente.

Nous souhaitons à cet effet pouvoir suivre sur la durée les démarches d’évaluation et leur évolution, la production d’analyses sur cette question. Déjà, on peut cependant confronter les intentions décrites dans les PEDT et des expériences antérieures à la littérature scientifique, pour anticiper les questions.

Des villes ont cependant déjà initié des démarches sur leur PEL ou PEG et ont travaillé sur des outils (logiciel de suivi, chartes d’usage, référentiels…) et sur le fonctionnement de la coordination, les rapports d’acteurs et la territorialisation du projet. Elles se sont interrogées sur le sens et les objectifs des projets. Le caractère durable des résultats et leur attribution au seul PEDT/PEL apparaît difficile à identifier.

Les résultats des évaluations de PEL et/ou de PRE sont divers mais convergent vers des conclusions semblables sur les objectifs pertinents d’une évaluation, la méthode participative à favoriser, le caractère formateur de ce processus, le besoin de « garanties » sur l’usage de l’évaluation et/ou des données, mais aussi sur des questions de sens.

Les travaux empiriques menés ou en cours sur les référentiels existants de critères et d’indicateurs (Ariège, Landes, …) conduisent au même constat.

Ils montrent l’intérêt pour les professionnels d’un travail coopératif, partagé, qui leur permet d’interroger collectivement les démarches, méthodes, postures et les actions proposées elles-mêmes et de mieux travailler ainsi ensemble sur des projets améliorés et sur une meilleure connaissance réciproque des cultures professionnelles.

Mais plus ces équipes veulent préciser les indicateurs et plus elles débouchent sur un outil trop lourd à utiliser, trop consommateur de temps et d’énergie avec un trop grand nombre d’indicateurs. Cela peut les conduire, soit à revenir en arrière, soit à abandonner et ne pas les utiliser.

Souvent, il y a aussi confusion entre diagnostic et évaluation.

Et elles commencent à poser la question d’un outil national qui leur permette de gagner du temps, tout en alimentant un suivi réel et en donnant une base à leur démarche d’évaluation.

Ou, au minimum, cela conduit à réfléchir à une base de « référentiel » ou de cahier des charges. Les équipes projet semblent souhaiter que cette base commune soit compatible avec des adaptations pour tenir compte des spécificités de leur projet et pour ne pas être trop « normatifs ».
C’est une piste de travail à explorer et discuter.

Un débat est cependant prévisible sur la question sensible de normes trop rigides.
Certains sont réticents aux démarches d’évaluation et veulent préserver une démarche projet assez souple, une priorité au travail collectif sur les actions par rapport au temps passé sur l’évaluation.

D’autres trouvent normal et nécessaire, pour une politique publique visant à l’égalité, de pouvoir se référer à une base nationale commune et même d’avoir à « rendre des comptes » pour garantir une recherche d’égalité et de pertinence.
Cela exige donc d’expliciter méthodes et objectifs.

Ce qui suit tente d’identifier les problématiques sur l’évaluation des PEDT/PEL et porte sur la démarche, les outils, les effets et le sens même du PEDT.

2. Enjeux d’une démarche d’évaluation des PEDT


  • Evaluer un projet éducatif local ou des actions éducatives est un défi redoutable et nécessite donc de préciser au départ quatre caractéristiques essentielles

- Que veut dire évaluer ?
- Pourquoi on évalue ? Quels sont les possibles et le souhaitable en la matière ?
- Quels sont les objectifs et, parmi eux, les plus prioritaires ?
- Sur quoi porte l’évaluation ?
Le dispositif, les coopérations des acteurs, le rapport avec les « droits communs », leurs failles parfois révélées par ces projets, la conformité aux objectifs de départ, la mise en rapport avec les moyens mobilisés, l’effet et/ou l’impact du dispositif sur les professionnels impliqués ou enfin sur les enfants, les jeunes et les familles ?
Pour les effets sur les enfants, s’agit-il des comportements et mobilisations, de la socialisation et/ou des résultats scolaires, des progrès dans les apprentissages des savoirs, des compétences et de l’accès à la culture ou encore de la santé ?
Comment sont intégrés objectifs et priorités du nouveau socle commun de connaissances, de compétences et de culture ? La liste est longue et demande de dégager des priorités, de faire des choix.

  • Evaluer peut vouloir dire « objectiver » et notamment « mesurer » les résultats ou plutôt apprécier l’évolution du degré d’atteinte des objectifs à partir de données pré-identifiées.
  • Mais on ne peut pas tout mesurer et il faut sélectionner un nombre minimum de données significatives pour les interpréter dans l’analyse.

Il n’y a pas d’évaluation idéale et exhaustive et il s’agit toujours d’un « compromis acceptable » en fonction des conditions, des moyens et du temps disponibles, des objectifs fixés, donc d’un équilibre à trouver.

  • Il peut s’agir « d’expliciter l’implicite » et de dépasser et/ou faire évoluer les représentations, d’aider les professionnels et acteurs à les dépasser, pour mieux appréhender la réalité et dépasser les constats issus des bilans.
  • On doit se poser la question : Evaluer l’efficacité et/ou l’efficience ? 

On chercherait plutôt à mesurer, à partir d’un point de départ identifié, les évolutions et les progrès réalisés et à s’appuyer dessus pour avancer. On évalue en fait une dynamique pour la prolonger plutôt que faire un simple constat.

  • Pour cela, évaluer c’est interroger d’abord les hypothèses, les objectifs, les démarches, les méthodes, les outils, le partenariat, la coopération, les parcours, identifier les « bonnes pratiques », « porter un regard critique et argumenté sur le sens du projet ».

Des travaux scientifiques allant plus loin existent sur l’évaluation des projets éducatifs.
Nous avons mobilisé par exemple ceux de Marc Demeuse (1) ou encore ceux de Vincent Dupriez et Régis Malet (2) ou ceux de Gérard Figari et Dominique Remaud (3).

Neuf caractéristiques des critères d’une évaluation ont été ainsi mises en évidence par Marc Demeuse et sont évoquées pour guider la formalisation des objectifs et la démarche, pour l’interroger : l’impact, la pertinence, l’efficience, la durabilité, l’à-propos, la flexibilité, la cohérence, l’efficacité, la synergie du projet éducatif, des parcours et des actions au bénéfice d’enfants sujets et acteurs.

Elles permettent d’aborder la prise en compte des rapports entre résultats et objectifs, entre les moyens mobilisés et les résultats, entre les besoins identifiés et les objectifs, entre les ressources mobilisées et les objectifs, la prise en compte des contraintes, la stabilité des résultats, les rapports entre acteurs et l’organisation, la capacité d’adaptation et de réactivité.

Les neufs critères d’évaluation d’un projet éducatif (cf. Demeuse (1)

IMPACT : lien de conformité entre les résultats du projet non-voulus ou explicités et les exigences de l’environnement. Effet de ces résultats sur l’environnement.
EFFICACITE : degré d’atteinte des objectifs visés, voulus. Rapport entre les objectifs voulus et les effets voulus ou induits effectivement obtenus (capacité à obtenir un « résultat positif »).
EFFICIENCE : degré d’atteinte des objectifs visés en rapport aux moyens mobilisés (« rendement », « productivité »).
PERTINENCE : rapport entre les besoins identifiés et les intentions ou les objectifs.
COHERENCE : rapport entre les ressources mobilisées et les objectifs.
A PROPOS : prise en compte des contraintes liées au contexte et au terrain dans l’élaboration du projet ou de l’action.
DURABILITE : rapport entre les objectifs visés et le maintien dans le temps des résultats.
SYNERGIE : degré de mise en place et de coordination des moyens, interaction entre acteurs.
FLEXIBILITE : capacité d’adaptation

Il a été aussi pointé le besoin de distinguer les «effets voulus et rendus», les « effets voulus et non-voulus » dans l’analyse.

  • Deux modèles alternatifs d’évaluation émergent en réaction à l’inadéquation du « modèle technocratique ». Ces modèles sont repris sous la bannière d’évaluation participative dont émergent deux grandes approches : pluralistes et démocratiques.

Le principe mis en évidence est qu’une évaluation se contentant d’identifier des performances ne garantit en rien une amélioration du travail. Il faut s’intéresser non seulement aux résultats mais également à l’analyse des processus à l’œuvre, leur évolution, leur dynamique pour les améliorer.

ModèlesObjectifsParticipants Rôle de l’évaluateur 
Logique d’expertise Evaluation technocratique  Diagnostic et contrôle Principalement les experts Expert
Logique participative Evaluation démocratique Nourrir le débat démocratique Les citoyens
Les opérateurs
Facilitateur
Evaluation pluraliste Apprentissage et changement  Les décideurs 
Les opérateurs
Les bénéficiaires 
 Médiateur

NB. Ce tableau est tiré de l’ouvrage L’évaluation dans les systèmes scolaires, accommodements du travail et reconfiguration des professionnalités (cf. note 2).
Les travaux de Nathalie Mons peuvent aussi être mobilisés pour caractériser ces démarches (4)

  • Il est aussi préférable de bien réaliser et d’anticiper que toute évaluation a un effet par elle-même, des conséquences sur les dispositifs, les actions, les professionnels, non seulement ceux engagés dans des actions du PEDT mais aussi des services de droit commun associés (éducation nationale, départements, communes) et même sur les partenaires associatifs des actions. Et ceux-ci le savent ou le craignent et peuvent agir en fonction. Ils peuvent modifier les conditions et résultats si on n’anticipe pas ces effets.
  • L’évaluation ne doit donc pas être perçue comme un jugement de valeur sur les personnes mais comme un outil de pilotage et d’action collectif, partagé.
  • Il faut expressément l’expliciter au départ de l’évaluation avec les acteurs mais aussi les responsables dans un cahier des charges.
  • La légitimité de l’évaluation et du pilote/chef de projet de l’évaluation est aussi essentielle, y compris dans le cas d’une évaluation interne.
  • Le cahier des charges doit engager tous les partenaires institutionnels qui doivent être associés à sa rédaction et mandater explicitement l’opérateur.


Exemple de situation / problème vécus à partir de cette question :
Par exemple, dans de nombreux cas, faute de légitimité reconnue, l’éducation nationale a refusé de fournir à l’échelle des quartiers, des écoles ou collèges, les résultats des évaluations nationales, souvent car elle redoutait l’utilisation de ces résultats pour d’autres objectifs. Le jeu de médias publiant des classements d’établissements peut effectivement avoir des effets redoutables sur l’évitement.
Alors, ne faudrait-il pas anticiper, proposer une convention d’usage et établir, localement ou nationalement, un protocole d’accès sous peine d’impasse ? Il pourrait être possible de s’appuyer sur une expérience locale de sélection d’un nombre limité d’indicateurs de résultats scolaires, renseignés par l’éducation nationale et interprétés de concert, en vue d’une généralisation éventuelle.
On pourrait aussi discuter d’indicateurs de « qualité » de l’école modifiables par ces projets.

Le même type de question s’est posé sur l’accès aux données économiques et sociales des CAF pourtant aussi indispensables aux diagnostics initiaux et dans un second temps à l’évaluation.
Les acteurs locaux ont besoin d’aide et de gagner du temps sur cette collecte.

  • Enfin, l’enjeu premier de l’évaluation des PEDT est de produire un effet levier pour améliorer leurs résultats et se rapprocher des objectifs, ce qui distingue l’évaluation d’un contrôle figé et daté.
  • Dépassant des constats certes indispensables, il s’agit d’identifier les «plus-values», propres au PEDT/PEL, de dégager des solutions, des perspectives individuelles et collectives, des pistes de progression.
  • L’objectif est donc de «pérenniser les effets positifs», d’obtenir un « effet-retour » sur le dispositif et ses actions mais aussi sur les postures professionnelles, voire sur les « droits communs ».

Ensuite, il faut avoir conscience que cela demande de mobiliser les institutions et leurs responsables hiérarchiques, les élus, les acteurs et professionnels de terrain au premier rang desquels les coordonnateurs, les enfants et les familles eux-mêmes, mais aussi les résultats de la recherche, pour contribuer au recul indispensable et capitaliser les avancées et les analyses des causes.

Enfin, on doit interroger les méthodes, outils et acteurs mobilisés, la durée de l’évaluation et ses moyens à mobiliser qui en dépendent. Est en jeu la crédibilité du travail et de ses résultats.

3. Méthodes et outils : principes


  • Il est difficile d’évaluer une politique éducative locale, son impact propre, car il faut prendre en compte la complexité de son rapport avec son environnement d’acteurs et de partenaires institutionnels très divers et avec leurs politiques de « droit commun ». Cela demande la combinaison d’outils, méthodes et d’approches quantitatives et qualitatives à croiser et l’identification de leurs limites.
  • L’évaluation d’un projet éducatif fait partie du projet lui-même et devrait être pensée et mise en œuvre dès le début, même si cette conception n’est pas spontanée ni admise ou intégrée dans tous les projets aujourd’hui. Ce doit être un objet de formation, d’accompagnement des équipes et une exigence institutionnelle partagée. On peut considérer pour les PEDT que nous sommes à l’année 0.
  • La rigueur nécessite donc de distinguer bilan et évaluation et la nature de l’évaluation, d’en préciser le contenu pour en interpréter correctement les résultats. Elle est à distinguer d’un simple bilan effectué à la fin d’une action pour rendre compte aux décideurs et financeurs institutionnels.
  • Avant de lancer une évaluation, il est indispensable d’en fixer les objectifs et la nature des résultats attendus, d’en circonscrire le périmètre, d’en décrire la méthode et les outils, les acteurs et les objets, le calendrier, le rendu.
  • Il faut aussi différencier l’auto-évaluation, l’évaluation externe et l’évaluation participative de l’apport d’un tiers extérieur expert – médiateur – témoin garant du respect du cadre préétabli et des règles déontologiques et de droit. Celui-ci doit pouvoir alors poser sa légitimité et son mandatement à intervenir de façon très claire et transparente. Il a la responsabilité d’en produire la synthèse, de la confronter aux acteurs et aux décideurs et d’en rapporter les conclusions.
  • En matière d’éducation, de projets éducatifs, l’évaluation participative est donc la méthode communément reconnue comme la plus adaptée. Dans une démarche projet, l’évaluation est nécessairement partagée avec les acteurs et contribue à leur formation. Elle associe aussi les partenaires institutionnels. 

Elle n’est pas pour autant généralisée aujourd’hui, au contraire.

On considère qu’une démarche d’évaluation se décline schématiquement en quatre phases :
- L’exploration initiale comportant l’analyse du mandat : Quel contexte ? Quelle(s) stratégie(s) éducative(s) ? Quelles références pour le proje t? Quels objectifs ? - et la problématisation – A quelle(s) question(s) fondamentale(s) l’évaluation doit- elle répondre ?
- La procédure de référentialisation : Quelles dimensions observer ?, Quels aspects représentatifs doit-on choisir pour porter un jugement et définir ainsi les critères ? Quelles caractéristiques observables des critères choisit-on pour vérifier leur degré d’atteinte et définir les indicateurs ?
- L’instrumentation : Quels outils employer pour renseigner les indicateurs ?
- L’interprétation, l’analyse : Quelles significations apporter aux résultats ?

Les outils sont connus et identifiés et peuvent être associés : recensement de données, traitement statistique, interprétation des résultats, confrontation à des contributions qualitatives obtenues par des entretiens individuels et collectifs, des enquêtes, en mobilisant des travaux scientifiques antérieurs, des comparaisons avec des projets similaires, de même nature, l’organisation de séminaires de travail, de formations, de journées d’information, de partage et de diffusion des résultats.

Il s’agit d’objectiver le plus possible l’analyse pour échapper au jeu des représentations, des ressentis à chaud ou des présupposés ou ne pas en rester prisonnier.

Si on voulait intégrer dans les objectifs de l’évaluation l’analyse des acquis scolaires ou de l’évolution de la santé des enfants, il faut prendre en compte qu’en matière d’action éducative, l’analyse scientifique de ces résultats sur les enfants ou les jeunes demande à la fois une grande rigueur méthodologique, un travail sur des cohortes avec groupe témoin neutre et donc un temps long de plusieurs années pour produire des résultats valides propres à l’action ou au projet.
Par ailleurs, les règles le plus souvent utilisées d’anonymat concernant les données personnelles peuvent entrer en contradiction avec la logique de suivi de cohorte.

Ce temps long entre souvent en conflit avec l’impatience aussi bien des acteurs, des familles et des responsables politiques qui veulent et doivent juger de la pertinence et de l’efficacité pour arbitrer des moyens affectés comme pour toute politique publique. Ceux-ci doivent aussi rendre des comptes à la société. La tentation est alors grande de s’appuyer sur des ressentis ou de simples bilans pour paraître assez réactif.

  • Les chercheurs soulignent également que même en dehors du cadre des PEDT, PEL ou PRE, le travail sur des cohortes est très compliqué à mettre en œuvre et pas toujours maîtrisé. Alors, il semble le plus souvent hors de portée des équipes locales, même si quelques exemples de tentatives existent.
  • Pour les équipes locales, une piste de travail serait plutôt de travailler sur des suivis de cas et surtout sur la contribution des institutions concernées sur leur champ de compétence, en particulier l’éducation nationale.
  • Enfin, une évaluation n’existe et n’a de sens que pour faire évoluer et pour améliorer un projet ou une action, voire pour les remettre en cause si elle est négative.

Dans tous les cas, l’efficacité de l’action publique, surtout en matière d’éducation, qui est très sensible, exige de pouvoir non seulement l’évaluer mais de pouvoir en partager les résultats et de convaincre de son bien-fondé. L’information des familles et leur association à l’évaluation en est ainsi un aspect incontournable.

En particulier, pour le recensement des données sur le projet, sur ses actions et ses sujets-bénéficiaires, la définition et le nombre des thèmes, critères, indicateurs et niveaux de résultats doivent être au moins discutés sinon décidés avec les acteurs de l’action si on veut qu’ils s’impliquent en toute connaissance de cause et qu’ils répondent. Ils doivent être convaincus de leur pertinence. Ce processus est en lui-même formateur et contribue à l’amélioration du projet et des actions.

  • Pour être exploitable et productive ou tout simplement renseignée, une enquête doit cependant s’appuyer sur un nombre limité de critères, d’indicateurs et de niveaux de résultats alors que la volonté d’être toujours plus précis et exhaustif pousse toujours à les multiplier
  • De manière plus générale, tout outil devrait intégrer le besoin d’être simple, utile et rapide à utiliser et/ou remplir, de ne pas être redondant avec d’autres.

Enfin, le temps de travail disponible des acteurs n’est pas extensible et la priorité devrait rester à la conduite du projet et des actions.

Comment articuler et ne pas opposer la mutualisation et la généralisation des méthodes et outils d’évaluation ayant fait leurs preuves nationalement et ce besoin de partager localement avec les acteurs la construction et la définition de ces outils pour l’efficacité de l’évaluation ?

Une partie de la réponse est sans doute dans la formation continue des acteurs et l’organisation de journées de partage d’expériences.

Mais cette démarche de mutualisation ne conduit-elle pas à trop « normer » l’évaluation et les projets locaux eux-mêmes ?
Les échanges que l’observatoire a menés sur les PRE ont permis de mettre en évidence ce risque et cette crainte des acteurs. Cette problématique devrait être travaillée en lien avec la recherche pour envisager un référentiel proposant des éléments « incontournables », communs plutôt qu’une norme.

Plus globalement, la notion de parcours souvent mobilisée, c’est-à-dire de « construction formalisée d’actions successives et articulées dans des temps plus ou moins longs, avec son système de mise en relation, en réseau, de gestion des rapports enfant/famille/institutions/acteurs associatifs, sportifs ou culturels impliqués, la définition des outils d’évaluation mobilisés, du calendrier prévisionnel avec les échéances d’évaluation » est un élément qui pourrait être structurant pour ces projets locaux. On les relève en particulier sur les champs de l’EAC (5), de l’EDD (6) et du sport et de l’éducation à la citoyenneté. Ils sont plus ou moins définis et normalisés. Un des enjeux de définition et de construction de ces parcours est d’éviter un risque de substitution ou de confusion entre les temps éducatifs ou de palliatif aux insuffisances de l’école.
On pourrait donc se poser la question à leur sujet :
Quelle évaluation de ces parcours et de leur formalisation ?
Quel niveau de normalisation pour éviter de nuire à la créativité des équipes et à l’initiative propre aux projets éducatifs locaux ?

Au-delà, le processus d’évaluation peut contribuer à l’identification de manques des « droits communs », avec toutes les difficultés que cela suppose et les conséquences potentielles sur l’évaluation elle-même pour éviter ce qui pourrait être vécu comme une remise en cause.

On parle à ce sujet d’un effet-retour de l’évaluation à bien anticiper dans la démarche et l’analyse.

Enfin, les évaluations interrogent aussi le caractère pérenne des effets identifiés du PEDT qu’il faudrait donc observer.

4. Risques et limites, craintes


5 questions

• Les débats sur la réforme des rythmes, les échanges des rencontres de Brest et de Rennes ont confirmé les interrogations portant sur le fait que les PEDT et autres projets locaux seraient marginaux « face à l’école » et qu’ils ne pourraient pas changer réellement les situations d’inégalités, qu’il ne faudrait pas tendre à externaliser ce que l’école aurait dû prendre en compte.
Cette « externalisation » permettrait de ne pas poser les failles des systèmes de droit commun, en premier lieu de l’école, et servirait d’alibi et/ou de substitut dans un contexte de repli budgétaire national.

• L’éducation nationale, comme la protection de l’enfance et les services sociaux ont leurs difficultés propres à élargir leur perspective et à s’ouvrir aux coopérations et échanges professionnels indispensables à une conception globale de l’éducation, découlant de l’analyse de la diversité des causes de l’échec scolaire, des inégalités devant l’accès à l’éducation.
Mais leur implication dans l’évaluation des PEDT est nécessaire à sa validité. Sur le temps scolaire, sur l’effet sur les résultats scolaires, les enseignants ne peuvent pas déléguer cette responsabilité et cette compétence professionnelle. L’évaluation des impacts sur les résultats scolaires et au-delà a besoin de leur contribution et de leur coopération qui devraient être intégrées dans leurs missions.
De la même façon, l’éducation populaire ne peux pas s’exempter d’analyser ses propres pratiques en termes d’accès et d’égalité.

La question du rapport local/national est posée dans les évaluations déjà réalisées et soulève la question de « normes », de « références nationales » et/ou d’indicateurs globaux en matière d’équité, d’accès aux services par exemple.
Mais n’y a-t- il pas un risque de standardisation alors qu’une des qualités du PEDT comme du PEL doit être sa souplesse, sa capacité d’adaptation et sa réactivité qu’il ne faut pas perdre ? Le PEDT est-il déjà ou non un dispositif normatif ?

• Enfin, des opinions diverses d’institutions, de syndicats comme d’acteurs eux-mêmes mettent en cause le rapport entre le coût de ces projets locaux et ses effets vérifiés, le nombre d’enfants concernés et elles interrogent l’existence du PEDT en période de contraintes budgétaires à tous les niveaux. Cette pression s’exerce et se traduit par l’exigence de bilans périodiques. Or, on voit que ceux-ci ne répondent pas véritablement au fond des problématiques.
On peut donc aussi se poser la question de l’effet de cette « pression évaluatrice » sur les projets.

• La diversité des PEDT et leur pilotage local par la commune repose de fait la question des inégalités territoriales et de la prise en charge nationale de cette question globale des inégalités devant l’éducation.
Et à partir des constats des évaluations réalisées, quelle serait la limite d’une analyse du fonctionnement, des procédures qui ignorerait celle des causes des inégalités ?

Pistes de réponses
Quelles leçons peut-on tirer ou quels questionnements poser ?

  • Ne faudrait-il pas, face à ces craintes, poser la question plus globale du rapport entre réussite éducative et réussite scolaire et celle de « l’école inclusive » dans une « ville inclusive » en référence au Pacte de réussite éducative de 2013 ?
  • Ne faudrait-il pas réfléchir à la mobilisation du nouveau socle commun ?
  • Un fort besoin de formation continue et initiale, d’accompagnement et de temps de travail pour la concertation est mis en évidence.
  • Il y a aussi besoin de formations communes, de mutualisation des expériences et des « bonnes pratiques » et de recherche, sous peine de tourner en rond et de s’épuiser localement
  • Un besoin de progrès dans la cohérence inter-institutionnelle et dans la clarté des engagements, dans les positionnements des différentes hiérarchies est aussi exprimé.

Ainsi, on ne peut s’exempter par exemple de la nécessité affirmée dans les textes mais, très, trop peu constatée dans les PEDT, de chercher à les articuler avec les différents dispositifs antérieurs, en particulier le volet éducatif des contrats de ville ou les actions de l’éducation nationale comme l’accompagnement éducatif, l’école ouverte ou les APC (7).

  • L’enjeu est donc d’observer la pertinence vis-à-vis des enjeux de qualité et d’atteinte des objectifs et priorités.
  • Au-delà, je conclurai qu’on ne peut pas avoir d’évaluation d’un projet éducatif qui n’interroge au départ son sens et ses objectifs eux-mêmes et pas seulement leur mise en œuvre.
  • S’agissant des PEDT, on est au croisement de références nationales et de références propres à chaque projet local et ses objectifs.

Ainsi, sont identifiés nationalement le cadre constitué par la loi de refondation de l’école et ses textes d’application, le nouveau socle commun de connaissances, compétences et culture, et le Pacte de 2013 pour la réussite éducative.
On ne pourra donc pas ignorer l’articulation nouvelle de ces deux dimensions nationale et locale dans l’évaluation qui doit être réellement partagée et accompagnée.
L’Etat change de posture et ne peut pas, ne peut plus tout réglementer et contrôler voire même préconiser.
Par contre, il est attendu de lui généralement un rôle régulateur, d’accompagnement, de formation et de qualification des professionnels, de garantie contre les inégalités, de recherche sur ces enjeux.
Donc l’évaluation partagée et participative ne peut-elle pas être un outil de cette régulation par le dialogue et la formation, sans revenir à une posture de contrôle et d’uniformisation ?

  • Il est donc indispensable de contribuer à poser dans les évaluations les questions de sens et de valeurs qui les structurent.
  • En particulier, les questions des inégalités sociales, éducatives, territoriales, de genre ou liées aux handicaps. Cela nécessite de les intégrer dans les diagnostics et de ne pas se limiter à des indicateurs liés à l’accessibilité ou à une égalité formelle des chances. Mais il faut aussi interroger les implicites dans les ambitions éducatives sur les contenus et dans l’évolution des pratiques professionnelles.
  • Comment produire de la justice et de l’équité ?
  • Comment prendre en compte dans les références le nouveau socle commun, distinct des programmes, plus à même de contribuer à la recherche de cohérence, de complémentarité, de continuité ?
  • Comment le confronter aux ressources éducatives locales mobilisables, en prenant en compte la spécificité des différents temps éducatifs afin d’éviter substitution, concurrence ou superposition ?
  • Comment utiliser en ce sens la notion de parcours éducatifs ?
  • Comment ne pas se contenter de répéter des « slogans » comme ce que j’appelle les 4 C – cohérence, complémentarité, continuité et coopération – et vérifier leur concrétisation et leur compréhension dans les objectifs, les moyens mobilisés en accompagnement, les méthodes adoptées ?
  • Je voudrais, à partir de l’étude des PEDT observés, attirer votre attention sur les questions de la place des parents et des enfants dans les projets.

Comment s’assurer ou plutôt contribuer à ce que l’évaluation ne s’arrête pas à l’information ou la concertation mais prenne en compte le niveau de consultation, d’association et d’initiative ?
En particulier, pour les familles les plus éloignées de l’école, sans s’enfermer dans des représentations inadaptées sur des « parents démissionnaires » ou « consommateurs » !

Conclusion provisoire :


Si on considère que :
- Les PEDT sont un processus en évolution qu’il faut contribuer à améliorer et non un objet figé à contrôler et à juger,
- On se réfère bien au nouveau contexte posé par la loi de refondation de l’école, le nouveau socle commun et le Pacte 2013 pour la réussite éducative,
- On s’inscrit bien dans une logique partenariale de projets partagés portant à court ou moyen terme sur l’ensemble des temps éducatifs, leur articulation et leur cohérence,

On ne peut que contribuer et accompagner les équipes éducatives dans un travail partagé sur l’évaluation des PEDT, une évaluation participative pour être efficaces et bien identifier et mobiliser les clés d’évolution des PEDT, pour la mobilisation de toutes les ressources éducatives locales, pour la réussite scolaire et éducative de toutes et tous, de chacune et chacun des enfants et des jeunes.

Dans cette démarche d’évaluation, chaque partenaire y compris l’éducation nationale doit d’abord s’interroger sur sa propre contribution, sur sa propre démarche, par exemple à propos de l’évaluation des résultats scolaires, des moyens de concertation et de formation partagée, des projets d’école pour enrichir cette démarche d’évaluation.

La prise en compte de ces questions est indispensable pour «porter un regard critique et argumenté sur le sens du projet », ce qui doit toujours être au cœur de ces démarches et de l’évaluation.
L’évaluation ne devrait-elle pas être une occasion de débattre des finalités du projet et des actions et donc aussi de la « qualité » de l’école comme des structures et politiques éducatives locales ?
Remarque :
Je n’ai pas volontairement abordé non plus la dimension individuelle de l’évaluation, le rapport individuel/collectif dans l’accompagnement à la scolarité ou les PRE avec ses modalités et problématiques spécifiques, pour rester sur les principes généraux de l’évaluation des PEDT.

L’ensemble de ces questions et remarques n’épuise ni la réflexion, ni le travail sur l’évaluation de ces projets et politiques qui ont aussi besoin de la recherche y compris de l’étude critique sur les références adoptées nationalement et localement. L’apport critique de la recherche est une nécessité pour l’amélioration et l’interrogation des projets éducatifs locaux, des politiques éducatives locales.

Notes

1. Demeuse, Marc, Frandji, Daniel, Greger, David, Roche, Jean-Yves. Les politiques d’éducation prioritaire en Europe. Tome II. Quel devenir pour l’égalité scolaire ? Lyon : ENS éditions, 2011. 420 p.
2. Dupriez, Vincent, Malet, Régis. L'évaluation dans les systèmes scolaires : accommodements du travail et reconfiguration des professionnalités. Paris : De Boeck Supérieur,  2013 (Coll. Perspectives en éducation et formation).
3. Figari, Gérard. Renaud, Dominique. Méthodologie d'évaluation en éducation et formation. Paris : De Boeck, 2014 (Coll. Pédagogie en Développement).
4. Mons, Nathalie. Effets théoriques et réels des politiques d’évaluation standardisées in Revue française de pédagogie, 4-2009, n°169. p. 99-140. Consultable en ligne à l’adresse : http://rfp.revues.org/1531
5. EAD = Education Artistique et Culturelle
6. EDD = Education au Développement Durable
7 . APC = Aide Pédagogique Complémentaire

Frédéric Jésu - f.jesu@wanadoo.fr a écrit :
24/06/2015 23:11

Merci pour cet intéressant article, qui contribue bien à ouvrir le chantier méthodologique (et donc éthique)de l'évaluation des PEL et des PEdT. La question reste à ouverte et donc à explorer de la part active que peuvent prendre TOUS les parents, ainsi que les enfants eux-mêmes, aux évaluations de processus et de résultats engagées.

Noémie a écrit :
21/09/2016 22:21

Merci sur cet article qui résume sans doute bien les préoccupations d'un point de vue de l'apprentissage et de la capacité des acteurs du territoire à coopérer. Il a été écrit en 2015. Pouvons-nous consulter les travaux de l'observatoire autre part, si les enquêtes ont avancé? Je souhaiterais trouver de bons exemples localisés en fonction des problématiques territoriales (Politique de la ville, rural isolé, etc…) ; est-ce possible ?

Ajouter un commentaire

Vous pouvez ajouter un commentaire en complétant le formulaire ci-dessous. Le format doit être plain text. Les commentaires sont modérés.