stephane.germain (avatar)

stephane.germain

Auteur en éducation, Président de l'association TousPourEDD Réseau francophone d'éducation au développement durable

Abonné·e de Mediapart

20 Billets

0 Édition

Billet de blog 19 janvier 2026

stephane.germain (avatar)

stephane.germain

Auteur en éducation, Président de l'association TousPourEDD Réseau francophone d'éducation au développement durable

Abonné·e de Mediapart

Résister à la privatisation des données éducatives

Les systèmes d’intelligence artificielle utilisés en éducation reposent sur la captation des données éducatives permettant d’adapter les contenus numériques en fonction de chaque élève. Cela n’est pas sans soulever des interrogations de taille, notamment lorsque ces données, individuelles et personnelles, viennent nourrir les systèmes d’IA des entreprises privées numériques du secteur des EdTech.

stephane.germain (avatar)

stephane.germain

Auteur en éducation, Président de l'association TousPourEDD Réseau francophone d'éducation au développement durable

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Un système d’IA est un système automatisé reposant sur un algorithme permettant de réaliser des tâches bien définies reproduisant des comportements liés aux humains : le raisonnement, la planification et la créativité. Les IA génératives sont une catégorie spécifique permettant la génération de textes, d’images ou de vidéos sur les bases d’invites (prompts) proposées par l’utilisateur. En éducation, les systèmes d’IA peuvent être utilisés par les enseignants pour la préparation des cours et des exercices d’application, pour la correction des copies, pour l’évaluation des élèves et pour le suivi des apprentissages. Les systèmes d’IA sont aussi utilisés par les élèves pour l’aide aux devoirs, l’aide à la maîtrise des apprentissages fondamentaux, l’aide à la conception des travaux demandés par les professeurs et pour l’adaptation à des besoins éducatifs particuliers. L’institution scolaire, elle-même, utilise les systèmes d’IA comme outils de pilotage et de contrôle par les données éducatives et scolaires. Les technologies numériques éducatives reposent sur l’exploitation de données intelligentes (Smart Data). Contrairement au Big Data des géants de la Tech, qui procèdent à la captation large et indiscriminée des données des utilisateurs, le Smart Data pour les apprentissages, consiste à se focaliser sur des données éducatives et scolaires bien spécifiques permettant de faire tourner les algorithmes de façon beaucoup plus intelligente pour procéder à l’analyse des apprentissages. Cette analyse peut être à la fois descriptive, diagnostique, prédictive et prescriptive.

IA dégénératives

Le développement accéléré des IA génératives et leur utilisation indifférenciée par une grande partie de la population n’est pas sans poser de nombreux problèmes éthiques, sociaux et environnementaux. La liste des questionnements est longue : menaces pour la vie privée des utilisateurs dont les données sont captées et partagées entre tiers, manque de transparence des algorithmes conduisant à un homogénéisation de la vision du monde et des procédés, introduction de biais menant à une altération de la perception et à la diffusion de stéréotypes à grande échelle, limitation de la capacité de réflexion critique, consommation énergétique et hydrique insoutenable menant à de nombreux conflits d’usage des ressources, privatisation des savoirs et des données, concentration du pouvoir et des procédés de contrôle, perte de compétences sociales, etc. En matière d’éducation, c’est la perte d’agentivité des élèves et des enseignants, c’est-à-dire la perte de leur capacité à prendre des décisions de manière autonome et à mettre en œuvre des actions portant influence sur le monde qui les entoure, qui est la plus préoccupante. Avec les technologies numériques éducatives, les élèves sont considérés comme de simples destinataires de la connaissance et non comme des acteurs du processus éducatif disposant d’une forme d’autonomie pour explorer leurs domaines d’intérêt, poser leurs objectifs d’études et s’approprier le processus d’apprentissage.

L’univers des technologies numériques éducatives est celui de la reproduction automatisée des procédés humains, résumée à un apprentissage de la technicité. Cet univers est très éloigné des réalités complexes de l’éducation car celles-ci intègrent, au-delà des aspects cognitifs, des dimensions socio-émotionnelles et comportementales. Autrement formulé, la généralisation de l’IA et des technologies numériques éducatives ne permet pas à l’éducation d’être transformatrice. De plus, elle engendre inéluctablement la perte des compétences humaines transférées dans la machine : perte de compétences en matière d’expertise, de réflexion critique, de créativité.

Ces questionnements ne sont pas nouveaux. Depuis leur apparition, nous savons que les systèmes d’IA ne sont pas neutres. Leur développement et leur usage à grande échelle conduisent à des changements sociétaux et environnementaux majeurs. C’est ce qui a conduit à l’élaboration du Règlement européen sur l’intelligence artificielle (RIA) visant à encadrer le développement et la mise sur le marché des systèmes d’IA. Suite à de nombreux considérants, dont le fameux considérant 110 portant sur les risques systémiques de l’IA, le législateur européen a défini un classement des systèmes d’IA selon quatre niveaux de risque : les risques inacceptables conduisant à l’interdiction de certains systèmes d’IA ; les systèmes d’IA à haut risque, notamment en matière de biométrie, d’infrastructures critiques, d’éducation, d’emploi, de respect de la vie privée ou de préservation de la démocratie et enfin les IA à risques faibles, puis ceux à risques minimes. En matière d’éducation, sont à haut risque, les systèmes d’IA utilisés pour déterminer l’accès à des formations, pour évaluer les acquis d’apprentissage, pour évaluer le niveau d’enseignement approprié pour un élève et les systèmes d’IA destinés à surveiller les élèves lors des examens (Annexe III, Alinéa 3, Système d’IA à haut risque en éducation). Ces dispositions d’encadrement des IA éducatives deviendront pleinement applicables le 2 août 2026, ce qui suppose que les Etats membres mettent en place des structures de gouvernance spécifiques à leur pays.      

Cadre d’usage de l’IA

En attendant la pleine application du RIA, les enseignants disposent, depuis juin 2025, d’un Cadre d’usage de l’IA en éducation. En rappelant les nombreux risques liés à l’utilisation des systèmes d’IA, ainsi que les questions éthiques, déontologiques et écologiques que ces risques soulèvent, le document entend fixer un cadre global pour l’usage de l’IA en éducation.  Indiquant que « les outils disponibles actuellement sont majoritairement non souverains, non libres, opaques dans leur fonctionnement et leurs données d’entraînement, et consommateurs en ressources et en énergie », ce cadre d’usage précise aussi que : « Dans le domaine éducatif, l’usage de l’IA soulève en premier lieu la question de son impact sur les processus de construction cognitive, le développement des capacités intellectuelles et relationnelles des élèves, ainsi que sur leur formation à la citoyenneté. »

Après ces mises en garde, le document expose différents principes éthiques et déontologiques. Le recours à l’IA doit se faire de manière responsable et réflexive en cherchant à mesurer l’ensemble des conséquences selon une logique de balance bénéfices-risques. Il faut ainsi interroger la souveraineté, la sécurité informatique des établissements scolaires, ainsi que la protection des données personnelles des utilisateurs et la préservation des ressources hydriques et énergétiques. Pour que la balance penche du bon côté, il faut privilégier les solutions libres et faire un usage frugal de l’IA : « L’IA ne doit être utilisée que si aucune autre solution moins coûteuse écologiquement ne répond de façon satisfaisante au besoin. » Dans le cadre pédagogique, les IA pour les apprentissages doivent être employées en assistance des enseignants et non en substitution et l’utilisation par les élèves doit impérativement être encadrée par les enseignants. Pour ce qui est des IA génératives, leur emploi par les élèves est autorisé à partir de la classe de 4ème avec un compte pédagogique créé pour la classe en veillant à ce qu’aucune donnée discriminante soit renseignée.

En ce qui concerne les obligations légales, le Cadre d’usage rappelle la réglementation sur la protection des données à caractère personnel. L’usage de l’IA à des fins pédagogiques, reposant sur l’utilisation des données éducatives des élèves, ne peut pas se faire sans l’accord du responsable de traitement : le Directeur Académique des Services de l’Education Nationale (DASEN) pour le premier degré et le chef d’établissement pour le second degré. Celui-ci vérifie les principes de protection des données personnelles, notamment le principe de minimisation qui postule que « les données à caractère personnel doivent être adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». L’utilisation des IA génératives grand public, procédant à la captation large des données des utilisateurs, semble difficilement compatible avec le principe de minimisation. Par ailleurs, cet usage doit se faire en toute transparence, avec information aux familles sur les procédés d’utilisation.

Ces dispositions ont été confortées par deux Foires aux questions publiées par la Commission Nationale de l’Informatique et des Libertés (CNIL) à destination des enseignants et des responsables de traitement. La CNIL rappelle que l’utilisation des IA à des fins pédagogiques se fait sous la responsabilité du DASEN ou du chef d’établissement, qu’elle doit faire l’objet d’une information aux parents et que ceux-ci peuvent s’opposer à cette utilisation pour leur enfant. Le responsable des traitements doit s’assurer que la captation des données éducatives par l’IA n’entraîne pas de traitement ultérieur par l’éditeur (partage avec d’autres fournisseurs ou recours à des traceurs publicitaires contrevenant au principe de neutralité commerciale du service public). Concernant les élèves mineurs, la CNIL recommande la plus grande vigilance dans la façon d’alimenter les IA afin que les données ne soient pas identifiantes. Enfin, concernant les enseignants, la CNIL rappelle que seules les données publiques peuvent être utilisées s’ils recourent aux IA génératives pour faciliter la préparation de leurs cours ou de leurs évaluations.

Pilotage de la donnée et par la donnée

Pour fonctionner, les systèmes d’IA reposent sur les technologies numériques éducatives. Cela suppose qu’ils soient alimentés par les données éducatives des élèves. Depuis le décret n° 2025-1165 du 5 décembre 2025 relatif au cadre de référence du numérique pour l’éducation, les données d’éducation font l’objet d’une normalisation. Présentées sous forme de schéma générique, dans la « Doctrine technique du numérique pour l’éducation », les données d’éducation comprennent les données des acteurs (données d’organisation scolaire, données d’identité, données évènementielles – les traces numériques -, données des attestations de réussite) et les données des ressources ou services (métadonnées pour référencer et partager les acquis, métadonnées pour décrire et partager les définitions des compétences, métadonnées de définition des contenus, métadonnées pour le conditionnement et l’intégration des contenus). L’ensemble de ces données fait l’objet d’une nomenclature unique permettant l’interopérabilité entre les différents fournisseurs de services numériques éducatifs. L’objectif affiché de la vision stratégique du numérique pour l’éducation est « de soutenir la communauté éducative en permettant aux fournisseurs de services de contribuer à une offre raisonnée, pérenne et inclusive ». Concrètement, « le pilotage de la donnée et par la donnée doit devenir une réalité dans un écosystème interopérable et sécurisé » en impliquant les différents acteurs de l’éducation dont les entreprises de services numériques et les entreprises des EdTech. De plus, « compte-tenu du volume important des données d’éducation, il est indispensable de mettre en place un système clair et défini de gouvernance de la donnée. » Cette gouvernance entend mobiliser l’ensemble des acteurs dont les « acteurs de l’ouverture des données et de l’exploitation des données pour la modélisation cognitive pour l’éducation ». Ainsi, à brève échéance, l’interopérabilité des données va permettre le recours large, au sein du système éducatif, à des services numériques éducatifs fournis par les acteurs de l’éducation ou par des entreprises privées. Ces orientations ont fait naître une véritable guerre du numérique éducatif. Pour les acteurs du service public, habitués à mutualiser librement leurs pratiques, l’ouverture des données d’éducation aux entreprises privées des EdTech est vécue comme un blanc-seing donné au secteur privé lui permettant de venir « coloniser » le service public d’éducation. Le décret du 5 décembre 2025, qui entérine le partage des données d’éducation avec des acteurs extérieurs, marque la fin de la sanctuarisation du service public d’éducation. Par ce décret, la marchandisation de l’éducation est devenue, en quelque sorte, réglementaire. Ceci en l’absence de débat démocratique.

Résistance à la marchandisation

Certains pourraient voir dans cette lecture précoloniale un procès d’intention, puisque la Doctrine technique du numérique pour l’éducation prévoit aussi un ensemble de communs numériques pour l’éducation. Cette création de communs numériques - qui est une réalité - ne cache pas cependant des démarches très affirmées de soutien de l’institution aux entreprises des EdTech. L’exemple le plus frappant est la généralisation des tests de mesure des acquis, appelés « évaluations nationales » par le Ministère, concernant plus de 8 millions d’élèves du CP à la classe de seconde. Outre le fait qu’ils « coûtent » environ 1,5 millions d’heures d’enseignement chaque année pour un bénéfice nul, ils ne respectent en rien les principes élémentaires énoncés par les règlements et cadre d’usage du numérique. Sous-traités auprès d’Open Assessment Technologies, une EdTech américaine qui héberge les données sur la plateforme Amazon Web, ils ne respectent pas le principe de souveraineté et de priorisation des solutions libres (qui ne coûtent rien au contribuable). Accessibles par un connecteur direct, sans passer par le Gestionnaire d’Accès aux Ressources (GAR), ils ne sont pas sécurisés. Venus délégitimer les enseignants dans leur capacité à positionner les élèves en début d’année scolaire, ils ne respectent pas le principe de frugalité qui prévalait auparavant. De plus, ils sont utilisés en substitution et non en assistance (avec les nombreux biais de passation que l’on connait conduisant à des aberrations, à grande échelle, rendant les résultats obtenus difficilement exploitables). Par ailleurs, la nécessaire information aux parents sur les modalités de traitement des données éducatives de leur enfant est largement défaillante (l’Article 6-1 du RGPD exige le consentement des personnes pour le traitement des données en rapport avec les finalités définies). De même, la diffusion large de fichiers contenant les QR codes d’accès nominatifs aux mesures des acquis des élèves d’une même classe interroge sur le respect de la confidentialité des données. Nombreux sont les parents à refuser que leurs enfants passent ces « évaluations nationales » sur le fondement de la protection des données personnelles. Face aux velléités conquérantes des entreprises des EdTech, en l’absence de dispositions réglementaires protectrices du service public, le RGPD à lui seul permet de résister à la marchandisation de l’éducation. En s’appuyant sur le refus de la privatisation des données éducatives de leurs enfants, ce sont les parents qui peuvent enrayer la dynamique actuelle d’immixtion des EdTech dans le service public d’éducation.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

L’auteur n’a pas autorisé les commentaires sur ce billet