https://www.youtube.com/watch?v=gO8Z1vtxmMA
Le niveau des élèves français en mathématiques ne cesse de chuter. Les études internationales comme PISA le confirment cycle après cycle, dessinant le portrait inquiétant d'une nation qui semble perdre pied dans une discipline pourtant essentielle. Ce constat, largement partagé, alimente l'anxiété des parents, des enseignants et des responsables politiques.
Pourtant, jamais le système éducatif n'a autant évalué ses élèves. Depuis plusieurs années, des évaluations nationales, massives et informatisées, sont déployées du CP à la seconde avec un objectif clair : diagnostiquer les difficultés au plus tôt pour permettre aux enseignants de mieux y répondre et de faire progresser chaque élève. Nous mesurons plus que jamais, avec des outils plus sophistiqués que jamais.
Face à cette situation, une question dérangeante émerge : et si ces évaluations, conçues comme un remède, faisaient en réalité partie du problème ? Si l'outil de mesure, au lieu d'aider à soigner le patient, contribuait à aggraver ses symptômes ? Cet article explore quatre révélations surprenantes issues de ce paradoxe français.
- Une coïncidence troublante : La chute s'est accélérée quand les "évals" se sont généralisées
Si le déclin du niveau en mathématiques n'est pas un phénomène nouveau, il a connu une accélération spectaculaire et sans précédent ces dernières années. Les chiffres de la dernière enquête PISA sont sans appel : entre 2018 et 2022, la France a connu une "chute historique" de 21 points, la plus forte baisse jamais enregistrée pour le pays.
Or, cette accélération coïncide précisément avec la période de généralisation du nouveau système d'évaluation national. Initié en 2017, ce dispositif numérique et automatisé s'est rapidement étendu à presque tous les niveaux clés de la scolarité. Bien sûr, corrélation ne vaut pas causalité, et d'autres facteurs ont pu jouer un rôle. Néanmoins, cette concomitance est un signal fort qui mérite d'être interrogé. En effet, alors que le déclin entre 2003 et 2015 était progressif (environ 1,5 point PISA par an), il s'est brutalement accéléré après 2017, atteignant plus de 5 points par an entre 2018 et 2022. Le déploiement de l'outil a coïncidé avec l'effondrement.
- Le "piège de l'automatisme" : Nous entraînons nos élèves pour le mauvais test
Pour être efficaces à grande échelle, les évaluations nationales doivent être corrigées automatiquement. Cette contrainte technique impose un format très spécifique : la majorité des questions sont des QCM ou des exercices demandant une réponse très courte et unique. En conséquence, ces tests sont particulièrement doués pour mesurer ce que l'on appelle les "automatismes" : la capacité à appliquer une procédure mémorisée, à effectuer un calcul rapide, à reconnaître une formule.
Le risque est que cette focalisation encourage, consciemment ou non, un enseignement basé sur la répétition et l'entraînement systématique ("drill"), au détriment du temps consacré à la résolution de problèmes complexes, à la construction d'un raisonnement ou à la modélisation d'une situation. En d'autres termes, on risque de former les élèves à exceller sur des exercices répétitifs à réponse unique, alors que la compétence mathématique moderne, telle que mesurée par PISA, réside dans la capacité à appliquer des concepts pour résoudre des problèmes variés.
C'est précisément l'inverse de ce que mesurent les tests internationaux comme PISA. Ces derniers n'évaluent pas tant la capacité à réciter une procédure que la "culture mathématique", c'est-à-dire l'aptitude à « formuler, employer et interpréter les mathématiques dans divers contextes du monde réel ». En survalorisant les automatismes, le système français préparerait donc moins bien ses élèves aux exigences internationales et aux compétences mathématiques du XXIe siècle.
L'enquête TIMSS (Trends in International Mathematics and Science Study) évalue les connaissances des élèves en mathématiques et en sciences à deux niveaux clés : la fin du CM1 et la fin de la classe de quatrième. Contrairement à PISA, TIMSS est plus directement alignée sur les programmes scolaires des pays participants, offrant un regard complémentaire sur l'acquisition des savoirs fondamentaux. Les résultats de l'édition 2023 pour la classe de quatrième confirment les difficultés observées dans PISA. Les résultats en CM1 situent également la France sous la moyenne européenne, indiquant que les difficultés s'installent dès l'école primaire et ne sont pas rattrapées au collège.
La stabilité des scores à un niveau bas, malgré les multiples réformes, est un signe irréfutable de l'inefficacité des politiques menées jusqu'à présent pour inverser la tendance.
- Un outil pour trier, pas pour transformer : Le diagnostic qui ne change pas la pédagogie
Un rapport de l'Inspection Générale de l'Éducation (IGÉSR) a analysé la manière dont les enseignants s'approprient les résultats de ces évaluations. Sa conclusion est aussi claire que décevante. D'un côté, les enseignants utilisent bien l'outil pour ce qu'il fait de mieux : identifier les élèves en difficulté et organiser des dispositifs de soutien en dehors de la classe, comme les fameux "groupes de besoins".
Mais le rapport met le doigt sur un échec central : ces évaluations, si efficaces pour le repérage, peinent à influencer le cœur du réacteur pédagogique.
...elles "ne conduisent que rarement à interroger la pédagogie déployée dans la classe".
L'outil est très efficace pour savoir qui a des difficultés, mais il n'aide pas les enseignants à comprendre pourquoi ces élèves échouent, ni à trouver des pistes pour faire évoluer leurs méthodes d'enseignement pour l'ensemble du groupe. Le système est donc un excellent thermomètre pour identifier le symptôme (l'échec), mais il ne fournit aucun diagnostic sur sa cause, laissant l'enseignant démuni pour adapter sa méthode en profondeur.
Conclusion
Le système d'évaluation actuel contribue à affaiblir les compétences mathématiques qu'il est censé renforcer. En focalisant l'attention sur ce qui est le plus facile à mesurer automatiquement, il risque de réduire les mathématiques à un ensemble de procédures à mémoriser, les éloignant de ce qui fait leur véritable puissance : le raisonnement, la créativité et la résolution de problèmes. Nous sommes face au "paradoxe de l'évaluation".