Seconde partie : guide orange et CP dédoublés

Dans la seconde partie de sa contribution, Roland Goigoux dénonce le dogmatisme pédagogique du MEN et surtout la supercherie qui consiste à prétendre qu'il est fondé sur la science. Plusieurs mensonges (par action et par omission) sont exposés.

Deuxième partie : petits arrangements avec la réalité

 La cohérence politique

  • L’autoritarisme

Nous l’avons montré, le dispositif de traitement des difficultés scolaires charrie avec lui des modalités d’action pédagogique spécifiques (l’instruction directe). Celles-ci peuvent présenter un intérêt lorsqu’elles sont utilisées à bon escient et qu’elles ne restent qu’une technique possible parmi d’autres[1]. Notre inquiétude, à la lecture de la circulaire de rentrée[2] et à l’écoute des formations nationales dispensées aux cadres, est qu’elles soient en passe de devenir une sorte de pédagogie officielle, du moins en français pour les premiers apprentissages.

Pour les diffuser, le ministère a choisi un mode de management autoritaire. Circulaires et livrets oranges se multiplient (4 nouveaux sont annoncés pour la rentrée prochaine), les ressources de la DEGSCO deviennent des feuilles de route obligatoires, les inspecteurs sont priés d’aller vérifier dans chaque CP dédoublé que les directives sont bien mises en œuvre, les récalcitrants sont menacés[3]. Cette caporalisation touche aussi les équipes de circonscription : la formation continue ne sert plus qu’à exposer les directives nationales, les diaporamas à projeter sont fournis par la DGESCO, aucune réflexion critique n’est prévue au programme. Le dernier dispositif de formation de cadres départementaux sur la maternelle a été élaboré au plan national et diffusé clés-en-main dans toutes les académies : le choix des vidéos à montrer, le temps alloué aux travaux de groupes et les questions à poser à l’auditoire, tout était pré-défini et devait être appliqué scrupuleusement. Les DASEN, sermonnés par les recteurs, font à leur tour pression sur les IEN qui sont tous convoqués pour écouter la bonne parole délivrée par les affidés du ministre à l’IH2EF à Poitiers. Les intervenants choisis par le MEN sont toujours les mêmes et répètent inlassablement les mêmes choses ; les chercheurs critiques sont black-listés. Cette caporalisation mal vécue sur le terrain[4] est complétée par une nouvelle réforme de la formation initiale reprise en main par l’Éducation nationale au détriment de l’Université dont l’autonomie agace. Des maquettes plus homogènes et uniformes au plan national ainsi qu’un contrôle accru, par les rectorats, de la formation dispensée sont prévus. Le ministère employeur veut pouvoir décider ce qu’il est bon d’enseigner et comment. Il y a fort à parier que le petit guide orange (CP) deviendra une référence incontournable l’an prochain dans les nouvelles INSPé.

  • La caution de La Science

Pour cautionner sa politique, le ministère a constitué un conseil scientifique (CSEN) et prétend que sa politique est rationnelle puisque fondée « sur la preuve ». Mais, lorsqu’on y regarde de plus près, on s’aperçoit que c’est faux, une fois sur deux : bon nombre d’injonctions officielles ne sont justifiées par aucune donnée probante ou sont publiées avant même que les groupes de travail du CSEN rendent leurs conclusions (par exemple, sur les manuels). De plus, le MEN ne reprend les arguments de son propre conseil scientifique que lorsqu’ils l’arrangent (il ignore ceux qui touchent au redoublement, aux rythmes scolaires, à la limitation des effectifs à 24[5]…). Bref, les scientifiques sont utilisés pour cautionner les grands choix ministériels, parfois à leur insu, parfois en échange de la promotion de leurs travaux.

Tout le monde s’est trompé en croyant qu’avec le CSEN les neurosciences prenaient le pouvoir. Là n’était pas l’essentiel. Qu’ils viennent des neurosciences, de la psychologie, des sciences de l’éducation ou même de la sociologie, les membres du CSEN ont été choisis avant tout parce qu’ils partageaient la même épistémologie : ils défendent les politiques éducatives fondées sur la preuve (« Evidence Based Policy ») et veulent que les méthodes pédagogiques soient testées expérimentalement, avec un groupe témoin comparé à un groupe expérimental. Toutes les autres méthodologies de recherche sont dénigrées, leurs financements taris. Comme il n’existe quasiment aucune étude de ce type disponible en France sur les sujets jugés prioritaires, le MEN bluffe, procède à des approximations ou transpose de manière hasardeuse des résultats de recherche produits à l’étranger dans des contextes scolaires très différents. 

Incohérences et autres « bobards »

  • Les bobards du guide orange sur l’apprentissage de la lecture

Nous avons déjà dénoncé les mensonges contenus dans ce guide en mai 2018 dans un article disponible en ligne[6] qui se terminait par une analyse du chapitre V consacré aux difficultés d’apprentissage et à l’arrivée prévisible de la « Réponse à l’intervention ». Nous y expliquions qu’imposer une méthode syllabique radicale, exigeant notamment que les mots à lire par les élèves soient 100 % déchiffrables, était infondé sur le plan scientifique. Franck Ramus, membre du CSEN, reconnaissait que le choix de la DGESCO était idéologique et pas scientifique[7], mais il lui semblait normal que les politiques fassent des choix qui correspondent à leurs promesses électorales. Nous en convenons mais, dans ce cas, pas au nom de la science !

Un an plus tard, le groupe de CSEN chargé d’étudier les manuels de lecture n’a toujours pas rendu son rapport. Son silence a été exploité par la DGESCO pour organiser une exceptionnelle campagne de propagande du syllabisme radical. Tous les inspecteurs et les maitres de cycle 2 ont eu droit à la lecture commentée du petit livre orange. Les pressions sur les enseignants se sont multipliées, les « leçons-modèles » du guide ont été érigées en obligations règlementaires. Quelques inspecteurs zélés en ont profité pour imposer à des enseignants vulnérables les manuels syllabiques les plus caricaturaux.

Pourtant, depuis un an, plusieurs publications scientifiques sont venues conforter nos affirmations[8]. En juin 2018, par exemple, trois cognitivistes – parmi les meilleures spécialistes de la question – Anne Castles (Sydney), Kathleen Rastle (Londres) et Kate Nation (Oxford) ont publié une synthèse[9]. Le CSEN ne peut prétendre l’ignorer, Stanislas Dehaene vantant sa qualité « magistrale » sur son compte twitter[10] : « a must-read, masterful synthesis of decades of scientific results on reading instruction ». Pourquoi reste-t-il alors muet sur les erreurs de la DGESCO qui prétend se baser « sur l’état de la recherche » ?

Dans la première partie de la synthèse, les trois auteures rappellent l’importance capitale de l’enseignement explicite des correspondances entre graphèmes et phonèmes dès le début de la scolarité obligatoire. Cependant, contrairement aux assertions du guide orange, elles indiquent que plusieurs questions restent en suspens sur le plan scientifique et qu’on ne peut pas imposer des pratiques dont on ne peut établir la légitimité.

1 - On ne sait toujours pas, écrivent-elles, si les approches synthétiques (qui vont des unités graphémiques aux mots) sont préférables aux approches analytiques (basées sur la décomposition de mots entiers en syllabes puis en graphèmes). L’obligation d’une approche exclusivement synthétique n’a donc aucun fondement scientifique.

2 - De la même manière, aucun argument ne justifie l’interdiction de la mémorisation de mots entiers que la DGESCO tente d’introduire. Là-encore, contrairement aux auteurs du livre orange, les chercheuses affirment que « le choix judicieux d’un petit nombre de mots entiers à étudier en détails a sa place dans la salle de classe au côté de l’étude des correspondances graphophonologiques» (traduit par nous). Elles ajoutent qu’il est important « d’enseigner la lecture de mots très fréquents même s’ils sont difficiles à décoder » (idem).

3 - Elles signalent aussi que le choix de supports entièrement décodables a de nombreux inconvénients « pour maintenir l'intérêt et la motivation des enfants à lire et atteindre les objectifs de construction du vocabulaire et des connaissances des enfants » (idem).

4 - Les auteurs reviennent également sur les constats de faiblesse en compréhension d’élèves de CM1 qui avaient pourtant bien démarré (au sens où ils étaient de bons décodeurs en CP). Elles insistent sur la nécessité d’enseigner explicitement, au cycle 3, des stratégies de compréhension comme la clarification (reformulation des idées), le résumé, la prédiction et la fabrication de questions. Mais elles rappellent que cela ne sert à rien si les enfants n’ont pas assez de connaissances sur ce dont parlent les textes. Choisir, comme on est en train de le faire en France, de consacrer tout le temps d’enseignement du français à la maitrise du décodage au cycle 2 au détriment de tous les autres enseignements est une erreur stratégique.

Les cadres de l’Éducation nationale ne pourraient-ils pas retrouver un peu d’autonomie vis-à-vis de leur hiérarchie pour éviter de propager des affirmations erronées et des recommandations infondées ?

  • Les mauvais résultats masqués des CP dédoublés

Une communication ministérielle habile a piégé les journalistes qui ont relayé, au printemps, le succès des dédoublements de classe alors que les résultats publiés par la DEPP étaient mauvais.

L’effet escompté, de l’aveu même du ministère, était modeste : aux environs de 0,20 (coefficient d de Cohen)[11]. Dans le monde scientifique, on parle d’effet « moyen » lorsque d > 0,50 et d’un effet « fort » lorsque d > 0,80. (Un peu moins lorsque les échantillons sont plus nombreux.) Or, les résultats publiés par la DEPP révèlent que l’effet réel du dispositif CP dédoublé est très faible avec un d = 0,08 en français[12]. Cet effet, en revanche, est avéré par un test statistique très significatif. La plupart des journalistes se sont laissé piéger par la communication ministérielle[13] qui valorisait la significativité du test et masquait la faiblesse de l’effet. La presse a titré sur « l’effet très significatif du dédoublement » et le tour était joué !

Sur le plan international, les chercheurs ont établi que, dans le meilleur des cas (qui n’est pas le nôtre), le dédoublement des classes est une mesure modérément efficace qui a un coût très élevé[14]. Si un véritable débat sur l’efficience des politiques publiques était organisé, on comparerait le rapport coût-efficacité de plusieurs dispositifs innovants. Par exemple, l’impact du dédoublement avec celui du dispositif « Plus de maitres que de classes » (PMQC) qui, à coût comparable, touchait sept à huit fois plus d’élèves sous le précédent gouvernement. Imaginons que l’effet de ce dispositif ait été lui aussi modeste mais avéré : sachant qu’il bénéficiait à beaucoup plus d’élèves à coût équivalent, qu’en auraient conclu les citoyens ?

Pour éviter d’avoir à affronter cette question, le MEN a censuré la publication des résultats de l’évaluation du dispositif PMQC que la DEPP avait réalisée à la fin de la précédente législature. Un échantillon représentatif d’élèves avait été constitué sous la supervision de Daniel Auverlot, sous-directeur de l’évaluation et de la performance scolaire de la DEPP, devenu recteur de Créteil. Ces élèves avaient été évalués à trois reprises au cours de l’année scolaire. Leurs enseignants avaient répondu à deux questionnaires permettant de caractériser leurs choix organisationnels et pédagogiques afin de pouvoir analyser les progrès des élèves au regard de ces choix. Les premiers résultats de cette étude ont été présentés par la DEPP le 17 avril 2017 à Clermont-Ferrand à l’invitation de madame Campion, rectrice de l’académie et responsable du comité national de suivi du dispositif « Plus de maitres que de classes »[15]. Depuis, plus rien : pas question de fragiliser le bilan social du quinquennat.

Aucune évaluation de ces quatre années d’expérimentation touchant des milliers d’élèves n’a été publiée[16]. Un comble pour un ministère qui ne jure que par l’expérimentation et l’évaluation !

Roland Goigoux, le 10 mai 2019                     

 

 

[1] Goigoux, R. (2010). Une pédagogie éclectique au service des élèves qui ont le plus besoin de l'école. La nouvelle revue de l'adaptation et de la scolarisation, 4, 21-30. https://www.cairn.info/revue-la-nouvelle-revue-de-l-adaptation-et-de-la-scolarisation-2010-4-page-21.htm

[2] http://www.cafepedagogique.net/lexpresso/Documents/docsjoints/circurentree160419.pdf

[3] http://blog.educpros.fr/claudelelievre/2019/05/03/mieux-vaut-etre-dasen-que-directeur-decole-pour-commenter-le-projet-de-loi-blanquer/

[4]https://blog.francetvinfo.fr/l-instit-humeurs/2019/05/04/portrait-robot-dun-instit-sanctionnable.html?fbclid=IwAR3E8ZCGd_D0dzERJ5V-6Fp8CNzF3WHvWd5H_lJ_tRp-qdO7KeeK3qRtdUA

[5] Le président Macron vient d’annoncer le plafonnement à 24 élèves par classe : les recherches disponibles laissent penser que cela ne s’accompagnera d’aucun effet sur les apprentissages des élèves. Seules les baisses drastiques (type dédoublement) produisent des effets (modérés comme nous le verrons à la fin de cet article).

[6] Article https://hal.archives-ouvertes.fr/hal-01788869 .

[7] Frank Ramus sur son compte Facebook, le 27 avril 2018

[8] Exposées dans une vidéo en ligne. http://centre-alain-savary.ens-lyon.fr/CAS/education-prioritaire/ressources/theme-1-perspectives-pedagogiques-et-educatives/lire-ecrire-parler-pour-apprendre-dans-toutes-les-disciplines/roland-goigux-enseigner-lire-ecrire-au-cp

[9] Article https://journals.sagepub.com/doi/full/10.1177/1529100618772271

[10] Le 6 avril 2019. https://twitter.com/StanDehaene

[11] L’effet d’une politique de réduction de la taille des classes est mesuré en pourcentage d’écart-type de score, c’est-à-dire en termes de différence de score moyen entre le groupe témoin et le groupe de référence, rapportée à l’unité du score (son écart-type). Le coefficient d ainsi calculé permet de rendre comparable les différentes mesures de performances.

[12] « L’évaluation de l’impact du dédoublement sur les compétences des élèves indique que l’effet est de 8 % d’écart-type en français en faveur des élèves de REP+, par rapport au groupe témoin » écrit la DEPP.  https://cache.media.education.gouv.fr/file/01_-_janvier/00/9/DP-evaluation-janvier-2019_1065009.pdf

[13] Ce ne fut pas le cas pour l’Obs et des Echos.

[14] https://educationendowmentfoundation.org.uk/evidence-summaries/

[15]Les missions du comité national de suivi (auquel nous participions) avaient été fixées par lettre de mission du directeur général de l’enseignement scolaire en date du 24 janvier 2014. Elles portaient notamment sur « La définition des modalités d’évaluation de l’efficience du dispositif ». 

[16] Embargo total : si aujourd’hui les fonctionnaires de la DEPP laissaient fuiter les résultats, ils risqueraient de perdre leur place.

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.

L'auteur a choisi de fermer cet article aux commentaires.