Débat entre chercheurs en sciences de l'éducation

Réponse aux associations et revues signataires de la lettre ouverte écrite en protestation des recommandations publiées par le conseil scientifique de l'Education nationale

       Chères et chers collègues,

Bien que je fasse partie des enseignants-chercheurs très critiques à l’égard du rôle politique que joue le conseil scientifique du ministère de l’Éducation nationale (CSEN) sur la scène scolaire[1], je trouve votre initiative malheureuse.

La lettre ouverte[2] que vous avez rédigée en réponse aux « Recommandations pédagogiques[3] » du CSEN (2020) pourrait sembler de bon sens et consensuelle. Comme vous et bon nombre de nos collègues, je crois en effet « qu’il n’existe pas une et une seule manière de produire de la connaissance scientifique sur les phénomènes éducatifs » et « qu’aucune institution émanant directement d’un pouvoir politique comme le CSEN n’a à définir et à dicter aux scientifiques ce qui serait de la bonne ou de la mauvaise science ». Mais est-ce vraiment ce que dit le CSEN dans ce texte ? Non, il ne définit pas les manières de produire des connaissances sur les phénomènes éducatifs, il annonce seulement qu’il va le faire : « le CSEN publiera prochainement des recommandations sur les types de recherche translationnelle qui ont leur place en éducation, les différents niveaux de preuve qu’ils apportent, et leurs enjeux éthiques et pratiques » (p. 12).

N’aurait-il pas été sage d’attendre cette publication pour la discuter ? Ou de commencer par examiner les thèses du conseil consultatif national d’éthique (CCNE) qui a défini, en 2019, sans que personne s’en émeuve, la manière dont les résultats des recherches pouvaient conduire à des « recommandations précises sur les modalités d’enseignement de savoirs ou d’apprentissages[4] » (p. 6) ?

 Dans son avis n° 131, le CCNE considère « qu’il est urgent et indispensable de départager ces résultats de la manière la moins arbitraire possible, afin de garantir aux enfants scolarisés les meilleures décisions pédagogiques. » Et il ajoute : « Une telle solution existe : il s’agit de l’expérimentation réalisée en situation réelle. » Le CCNE n’en évoque hélas pas d’autre, même s’il reconnait que le contexte éducatif est spécifique et qu’il faut tenir compte de "l’effet Hawthorne" (les personnes impliquées dans une expérimentation ont envie qu'elle réussisse), avant de conclure que « l’expérimentation en conditions réelles pourrait à terme constituer une branche propre des sciences de l’éducation ». Une branche, pas l’arbre.

Qu’est-ce que le CSEN a vraiment écrit au printemps dernier ? La citation que vous incriminez[5] se situe dans la partie du rapport consacrée aux ressources pédagogiques. Le CSEN y rappelle que la valeur ajoutée des outils numériques ne va pas de soi car ceux-ci peuvent « reposer sur des pédagogies inefficaces, favoriser la distraction, encourager la vitesse au détriment de la réflexion, diminuer la socialisation, propager des informations fausses… ». Je crois qu’il a raison sur ce point. L’enfer pédagogique est pavé de bonnes intentions démocratisantes. Les sciences de l’éducation et de la formation devraient être les premières à impulser des recherches empiriques évaluant les effets des ressources et outils didactiques qu’elles promeuvent, mais c’est loin d’être le cas. Nous sommes peu nombreux à nous y employer[6].

Le CSEN ajoute cependant, et ce devrait être l’objet d’une discussion constructive, que « seule l’expérimentation contrôlée permet de vérifier qu’un outil pédagogique fonctionne ». En toute rigueur, on s’attendrait à ce que la protestation des sciences de l’éducation s’accompagne d’arguments pour rejeter l’exclusivité de cette modalité et, pour cela, que vous évoquiez des solutions alternatives. Comment peut-on savoir, autrement qu’en procédant à une expérimentation, si un outil didactique produit les effets et les améliorations escomptés ? Pour ma part, je n’en connais pas d’autres et votre texte n’en mentionne aucune. En revanche, il fait comme si l’hégémonie méthodologique de l’expérimentation s’imposait à toutes les sortes de recherches en éducation. Or, ce n’est pas le cas dans le rapport : l’expérimentation ne concerne que la validation des outils.

J’y vois pour ma part un aveu de faiblesse. Pendant de nombreuses années, les sciences de l’éducation et les didactiques ont produit une multitude de recommandations pratiques et d’outils dont elles n’ont pas pris soin de vérifier l’efficacité sur les apprentissages des élèves. Leurs recherches montrent que les ingénieries innovantes sont réalisables, très rarement qu’elles produisent sur les élèves des effets supérieurs à ceux des pratiques existantes. Elles contribuent peu à ce que le CCNE appelle « départager les résultats de la manière la moins arbitraire possible, afin de garantir aux enfants scolarisés les meilleures décisions pédagogiques ». Cela supposerait des comparaisons dans une approche au moins quasi-expérimentale, si ce n’est sur la base d’essais randomisés. Faute de nous imposer à nous-même cette exigence, le niveau de preuve[7] de nos recherches est faible. Pire, nous éludons les débats sur l’administration de la preuve en éducation, abandonnant ce terrain aux psychologues et aux économistes. Puis nous déplorons leur hégémonie !

En se focalisant sur l’évaluation de l’impact des ressources éducatives, les rédacteurs de la lettre ouverte passent à côté de ce qui constitue pourtant l’essentiel du rapport : la définition des pratiques pédagogiques recommandables[8]. Ces recommandations auraient mérité d’être mises en débat notamment parce qu’une partie d’entre elles sont contradictoires avec celles des didacticiens, sur l’élémentarisation des savoirs par exemple. De plus, les principes psychopédagogiques promus par le CSEN sont uniquement fondés[9] sur des démarches de type Evidence Based Education (éducation fondée sur la preuve) dont la première étape, celle des méta-analyses, définit la légitimité des épistémologies et ne retient que les résultats jugés valides. C’est en cela que la démarche du CSEN est contestable car elle risque de produire une uniformisation méthodologique et conceptuelle, niant la complémentarité de diverses méthodologies pour l’étude des causalités[10]. Elle écarte le paradigme écologique de l’Educational Effectiveness Research par exemple, bien que celui-ci apporte des informations sur l’efficacité de l’action pédagogique sans chercher à modifier les pratiques professionnelles observées (recherches sur l’effet-maitre, par exemple, permettant d’apprendre de la variété des situations)[11].

Le CSEN contribue de surcroit à ce que, une fois les expérimentations terminées et les énoncés produits, les connaissances circulent de manière décontextualisée. Il néglige par exemple de mentionner dans quelles conditions elles ont été établies et quel est leur domaine de validité. L’origine des connaissances n’est plus questionnée, les faits sont naturalisés. Le savoir généré n’est plus rattaché à ses conditions de production et se retrouve appliqué dans des conditions très différentes de celles ayant présidé à son élaboration.

En d’autres termes, je ne conteste pas la menace que fait peser le CSEN sur les sciences de l’éducation mais je pense que la cible choisie (l’évaluation des outils) n’est pas la bonne : c’est celle sur laquelle le conseil est le plus légitime et nous le moins. Le combat va être rude, raison de plus pour ne pas tirer notre poudre aux moineaux.

Comment faire ? Nous pourrions être plus rigoureux et plus précis, notre stratégie devrait être mieux ciblée et concertée. Elle pourrait articuler deux mouvements : 1) balayer devant notre porte, 2) critiquer l’activité du CSEN.

1). La plupart des didactiques consacrent une partie significative de leur activité scientifique à l’élaboration de moyens d'enseignement (scénarios, outils, supports, dispositifs, manuels, etc.). Il serait souhaitable que ceux-ci fassent l'objet d'une critique scientifique dont les modalités sont à définir en fonction de la spécificité des apprentissages visés et dans le dialogue avec les agences d’évaluation. En didactique du Français par exemple, nous manquons cruellement de programmes de recherche comparant les effets de diverses modalités d’enseignement sur les apprentissages et les progrès des élèves[12]. Les didactiques, quoi qu’elles s’en défendent parfois, sont de grandes pourvoyeuses de recommandations (et de dénigrement) de pratiques. Il serait sain qu’elles exposent les données empiriques, voire probantes, qui les légitiment.

2). Le CSEN n’a toujours pas publié les recommandations sur les « recherches translationnelles » qu’il annonçait au printemps (le terme lui-même est contestable tant la dichotomie entre recherche fondamentale et recherche appliquée qui le sous-tend est inappropriée en éducation). Il est en difficulté pour le faire car les plus avertis de ses membres savent que sa vision caricaturale des expérimentations randomisées est déjà dépassée et qu’elle fait l’objet de vives critiques sur le plan international[13] même parmi les tenants des Evidence based policy. La validité écologique des études dont dispose le CSEN est faible (de plus en plus de psychologues, comme Edouard Gentaz par exemple[14], mettent en garde contre ses abus) et la diffusion des outils validés expérimentalement (le « passage à l’échelle ») tourne au fiasco partout où leur conception est réalisée sur un mode translationnel, c’est-à-dire descendant de la théorie vers la pratique[15].

Le CSEN est bien en peine de citer une étude française[16] correspondant à ses standards sur des objets d’enseignement ayant une certaine envergure et il a été incapable d’en initier une nouvelle en trois ans d’activité. Stanislas Dehaene lui-même en est réduit à faire la promotion de manuels dont la « validation » ne répond à aucun des critères élémentaires de scientificité. Celui qu’il promeut ardemment pour l’enseignement initial de la lecture[17] a été testé par un membre du conseil scientifique qui a mesuré les performances des élèves après enseignement mais pas avant ! Même le groupe de travail interne du CSEN dédié aux manuels n’a pu faire autrement que reconnaitre ce manque de rigueur[18], sans s’autoriser toutefois à critiquer les prescriptions de l’Éducation nationale qui outrepassent ou contredisent ses conclusions.

Nous saurions l’expliquer au grand public si le CSEN qui cautionne des prescriptions non fondées prenait le risque de nous imposer ses vues.

Très cordialement,

Roland Goigoux

Professeur des universités émérite en Sciences de l’éducation et de la formation

Laboratoire ACTé, Université Clermont-Auvergne

 

[1]Cf., par ex., sur Mediapart  https://blogs.mediapart.fr/roland-goigoux/blog ou https://hal.archives-ouvertes.fr/hal-01788869/document   

[2] Lettre ouverte signée par neuf associations (ADMEE, AECSE, AiRDF, ARCD, ARDM, ARDiST, ATRHE, ATIEF, Sophied) et quatre revues :  https://aecse.net/2020/11/11/de-la-pluralite-des-cadres-theoriques-et-des-methodes-de-recherche-en-education-pour-penser-scientifiquement-les-faits-educatif/

[3]https://www.reseaucanope.fr/fileadmin/user_upload/Projets/conseil_scientifique_education_nationale/Ressources_pedagogiques/Recommandations_pedagogiques_CSEN_.pdf

[4] https://www.ccne-ethique.fr/sites/default/files/publications/avis_131_-_cadre_ethique_experimentation_pedagogique.pdf

[5] « Seule l’expérimentation contrôlée permet de vérifier qu’un outil pédagogique fonctionne. Or, un nombre encore insuffisant de ressources ont démontré leur efficacité dans des essais randomisés contrôlés. Dans les années à venir, un gros effort de recherche devrait être mené dans ce sens. Le CSEN publiera prochainement des recommandations sur les types de recherche translationnelle qui ont leur place en éducation, les différents niveaux de preuve qu’ils apportent, et leurs enjeux éthiques et pratiques ».

[6] Cf. par exemple les thèses de doctorat de Juliette Renaud (2020), d’Isabelle Roux-Baron (2019) ou Jérôme Riou (2017) que nous avons dirigées.

[7] Trois niveaux de preuve sont généralement distingués dans les approches expérimentales qu’on ne peut réduire aux seuls essais randomisés. Au niveau 1, le plus exigeant, on compare deux groupes, avant et après l'intervention : un groupe « expérimental » et un groupe « témoin actif » (les élèves bénéficient d'une intervention, mais de nature différente). Au niveau 2, le groupe témoin « actif » est remplacé par un groupe témoin « passif » (seul l’enseignement ordinaire se poursuit, aucune intervention spécifique mobilisant les élèves et leurs professeurs n’est proposée ce qui génère souvent des effets psychosociaux). Au niveau 3, une intervention est proposée à un seul groupe d'élèves, testés avant et après l'intervention, mais sans comparaison possible avec un groupe de référence. On peut ainsi tester la faisabilité d'une intervention, mais rien ne permet d'affirmer que d'autres dispositifs n’auraient pas conduit à la même progression sur les variables mesurées (cf. Gentaz, 2013).

[8] Pratiques rangées en quatre rubriques : 

  • Aider l’élève à s’engager dans l’apprentissage (Piquer la curiosité, maximiser la motivation tout au long de l’apprentissage, annoncer le but, favoriser l’implication active) 
  • Aider l’élève à rester engagé dans son apprentissage (Engager tous les élèves, minimiser les sources de distraction, soigner l’environnement de travail)
  • Aider l’élève à structurer ses connaissances et à les consolider (Expliciter et demander d’expliciter, s’évaluer régulièrement pour faciliter la mémorisation, fournir un retour sur erreur (feedback) approprié, ne pas avoir peur de la répétition, multiplier les exemples.)
  • Fournir des outils qui favorisent l’autonomie (Créer des banques de problèmes, apprendre à s’autoévaluer et à réviser de façon active, encourager le travail en petits groupes et en binôme, même à distance.)

[9] 54 références bibliographiques dont seulement 3 en Français : une de psychologues, une du CSEN lui-même et une de l’école d’économie de Paris ! Aucune n’émane des chercheurs francophones en sciences de l’éducation et de la formation.

[10] https://www.cairn.info/revue-recherches-en-didactiques-2015-1-page-9.htm#

[11] http://centre-alain-savary.ens-lyon.fr/CAS/nouvelles-professionnalites/formateurs/roland-goigoux-quels-savoirs-pour-les-formateurs

[12] Cela impliquerait aussi, en didactique du Français, de s’interroger sur la formation méthodologique des chercheurs, notamment sur leur maitrise des traitements quantitatifs. https://www.cairn.info/revue-francaise-de-pedagogie-2016-3-page-5.htm

[13] https://journals.openedition.org/educationdidactique/2872   et le numéro 11/2 de la revue Education et didactique

[14] https://www.cahiers-pedagogiques.com/Du-bon-usage-des-recherches

[15] Un fort consensus international existe sur les conditions à réunir pour obtenir une recherche interventionnelle de qualité, au premier rang desquelles on trouve : la confiance des tutelles en leurs personnels enseignants, le volontariat des enseignants et des chercheurs, l’autonomie scientifique, pédagogique et financière accordée à chaque projet de recherche, la diffusion systématique des résultats (positifs ou négatifs) observés... le contraire de ce que cautionne aujourd’hui le CSEN https://www.larecherche.fr/sciences-cognitives/du-labo-%C3%A0-l%C3%A9cole-le-d%C3%A9licat-passage-%C3%A0-l%C3%A9chelle

[16] La seule étude française réalisée selon un dispositif expérimental randomisé en milieu scolaire a été réalisée en 2011 sous la direction de Gentaz. Cette étude sur la lecture au CP en éducation prioritaire a conclu à l’absence de supériorité du dispositif expérimental sur les pratiques habituelles des maitres.

[17] « Je lis, j’écris », éditions des Lettres bleues.

[18] https://www.reseau-canope.fr/fileadmin/user_upload/Projets/conference_role_experimentation_domaine_educatif/MANUELS_CSEN_VDEF.pdf

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.

L’auteur·e a choisi de fermer cet article aux commentaires.