De l’évaluation à l’école à l’évaluation de l’école (1)

J’ai récemment reçu un texte écrit par un instituteur et formateur d’enseignants actuellement à la retraite, Jany Gibert. Ce texte, écrit en mai 2010, propose une analyse du rapport de l’Institut Montaigne, Vaincre l’échec à l’école primaire, paru en avril 2010 (http://www.institutmontaigne.org/vaincre-l-echec-a-l-ecole-primaire-3179.html). Les propos développés par Jany Gibert m’ont semblé très intéressants et je souscris à de nombreuses réflexions qui y sont présentées. J’ai donc décidé de le publier sur ce blog, avec l’autorisation de son auteur. Je l’en remercie vivement.

J’ai récemment reçu un texte écrit par un instituteur et formateur d’enseignants actuellement à la retraite, Jany Gibert. Ce texte, écrit en mai 2010, propose une analyse du rapport de l’Institut Montaigne, Vaincre l’échec à l’école primaire, paru en avril 2010 (http://www.institutmontaigne.org/vaincre-l-echec-a-l-ecole-primaire-3179.html). Les propos développés par Jany Gibert m’ont semblé très intéressants et je souscris à de nombreuses réflexions qui y sont présentées. J’ai donc décidé de le publier sur ce blog, avec l’autorisation de son auteur. Je l’en remercie vivement.

----------------------------------------

 

Les récents rapports de l’Institut Montaigne et de la Cour des comptes sur la « santé » de l’école primaire sont très intéressants et méritent réflexion.

 

 

L’un comme l’autre soulignent l’importance que l’on doit accorder au premier maillon du système éducatif. De nombreux arguments avancés pour analyser la situation comme les réponses à apporter pour améliorer le système sont pertinents : formation professionnelle et continue, statut social…

 

 

Voilà, c’est dit. Comme je suis un vieux formateur, je sais que si l’on souhaite faire des remarques critiques et des propositions dans le cadre d’une évaluation (d’un élève, d’un enseignant [d’une entreprise ? d’une institution ?]), il faut d’abord objectiver le positif sous peine que nos analyses et nos propositions les plus pertinentes soient rejetées ou simplement non entendues.

 

 

Il est particulièrement intéressant de constater que la logique la plus répandue de l’évaluation, c’est l’observation du manque. Je n’ai pas la prétention de répondre de façon argumentée à deux rapports ayant mobilisé plusieurs dizaines de personnes. Leur analyse détaillée mériterait de faire l’objet d’un travail collectif qui proposerait des analyses et des solutions complémentaires ou alternatives.

 

 

 

Je ne peux cependant pas m’empêcher de faire quelques commentaires en particulier sur celui de l’Institut Montaigne, sur des points qui me paraissent essentiels.

 

 

Évaluer l’évaluation

 

 

L’évaluation est à la mode. On la revendique aussi bien sur les questions d’économie internationale, de politiques publiques, que dans la production ou le « management », mais également à l’école.

 

 

On pourrait faire la liste des questions essentielles.

— Qu’est-ce que l’évaluation, qu’est-ce qu’on évalue, qui évalue, comment on évalue, à quoi donne-t-on de la valeur, comment donne-t-on de la valeur, pour faire quoi, au profit de qui ?

 

 

C’est quoi, évaluer ?

 

 

Évaluer, c’est d’abord et avant tout prélever de l’information fiable et donc faire le choix d’indicateurs.

 

 

C’est ensuite analyser ou contrôler l’information recueillie.

 

 

Enfin, c’est donner de la valeur à cette information en fonction de critères pour prendre une décision (cf. J.-M. De Ketele et X. Rogiers).

 

 

Première remarque :

 

 

Conformément à la conception « observer le manque », aucun indicateur et aucune analyse qui permettraient d’objectiver du positif ne sont proposés dans le rapport.

 

 

Au contraire, les termes employés et le choix de données qui mériteraient d’être interrogés (40 % des élèves du primaire quittent l’école avec de graves lacunes ?) amplifient et dramatisent la situation.

 

 

La « longue dégringolade » de la France en lecture est affirmée en observant une perte de score de 1,7 % entre 1990 et 2006, alors que dans le même temps le score moyen de l’ensemble des pays baissait de 1,4 %.

 

 

Associer une diminution comparée de 0,3 % en 16 ans à un terme alarmiste ne me semble pas très pertinent.

 

 

Les représentations graphiques des enquêtes diverses sont parfois à la même enseigne. Pour une différence numérique dans les performances en lecture entre l’Angleterre et la France de 3 %, les histogrammes de représentations montrent une différence de 50 %.

 

 

Deuxième remarque :

 

 

Dans le rapport certains constats proposés sont irréfutables, mais ce qui me paraît utile d’interroger c’est le choix des indicateurs du fonctionnement interne à l’école qui y sont proposés, comme si l’école était un système clos, à l’abri du monde, des phénomènes sociaux, sociétaux, économiques, culturels.

 

 

Aucun indicateur traduisant l’irruption de la société dans l’école : on aurait par exemple pu observer :

— le nombre et l’évolution de familles en difficulté éducative et des équipes éducatives ;

— le nombre de microconflits école-famille (cf. directeurs, inspecteurs) ;

— l’accroissement des missions éducatives autrefois dévolues à la famille (prévention santé et cie) qui empiètent sur les temps consacrés aux enseignements fondamentaux ;

— à compléter… et bien sûr à comparer avec d’autres pays.

 

 

Quelques indicateurs qui informeraient sur le moral des enseignants, sur la représentation qu’ils ont de leur mission et de ses contraintes, ainsi que du pilotage vibrionnant de l’institution auraient été bienvenus.

 

 

En particulier, rien n’est dit sur le séisme professionnel qu’a engendré la rupture avec les instructions officielles de 2002, aboutissement historique et consensus politique, scientifique et institutionnel.

 

 

À ce sujet, le silence des corps d’inspection qui ont été les défenseurs convaincus de ces évolutions est assourdissant (1).

 

 

Troisième remarque :

 

 

Évaluer, c’est constater et comprendre.

 

 

On peut accorder à ces rapports le souci de faire des constats et la volonté d’émettre des hypothèses d’explication qu’il faudrait parfois interroger de plus près.

 

 

Ainsi, la critique de l’insuffisance de formation par l’IUFM, pertinente ou partisane (les critiques des agrégés de l’enseignement secondaire concernent-t-elles les enseignants du primaire ou les formés du CAPES qui sortent aussi de l’IUFM ? ) n’est pas associée au phénomène de « bizutage » (missions les plus difficiles en début de carrière) ni aux contraintes institutionnelles de la formation, comme au phénomène des « noyaux durs » (« tu veux essayer de travailler comme on t’a dit à l’IUFM, tu verras, tu en auras vite marre… »).

 

 

Elle pose d’autant plus problème, que ce sont majoritairement des agrégés du secondaire qui occupent les postes de maîtres de conférence et de PIUFM de cette même institution décriée.

 

 

Il aurait (eut ?) été judicieux de faire une vraie évaluation de l’IUFM en interrogeant les jeunes professeurs quelques années après leur formation initiale.

 

 

Des rapprochements sinon des hypothèses de corrélation auraient pu être envisagés. Par exemple, on aurait pu observer :

— le taux de retard à l’entrée en sixième des enfants de parents inactifs qui est le triple de celui des enfants de cadre,

— la forte baisse générale des résultats à l’évaluation sixième entre 1987 et 1997, pratiquement enrayée entre 1997 et 2007 pour les enfants de cadres et des professions intellectuelles et se dégradant un peu moins pour les enfants des milieux populaires,

— l’évolution du chômage et du travail précaire.

 

 

Le rapport a le mérite de mettre à jour que la dépense par élève du primaire en France est inférieure de 12 % de la moyenne des pays de l’OCDE et beaucoup moins largement dotée que de très nombreux pays européens.

 

 

Enfin, le redoublement n’y est analysé que dans ses conséquences. Or, le redoublement est essentiellement déterminé, décidé, par la comparaison à une norme, par le biais de l’évaluation, par l’observation d’un manque qualifié de rédhibitoire. Des analyses beaucoup plus fines, sur le consumérisme des fichiers, sur les effets pervers de l’évaluation continue qui constate plus qu’elle ne comprend sont essentielles si on veut enrayer un jour ce fléau.

 

 

1 - L’auteur ignorait les réactions du SNPI-FSU qui fut parmi les premiers syndicats d’inspecteurs à dénoncer le coup (et le coût) politique de la suppression sans discussion des programmes 2002 pour faire plaisir aux lobbies anti-pédagogie proches du ministère Darcos et du Président de la République (http://bit.ly/aeKHbb http://bit.ly/dazhfn http://bit.ly/adRu3K http://bit.ly/dazhfn http://bit.ly/98Qukt )

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.