Ce texte propose une réponse au Manifeste pour l’objection de conscience face à l’IA dans l’éducation et la recherche de l'Atelier d'écologie politique de Toulouse, communauté pluridisciplinaire de scientifiques travaillant ou réfléchissant aux multiples aspects liés aux bouleversements écologiques. [Lire le Manifeste de l'Atécopol ici].
*****
Certains appellent à une « objection de conscience » universitaire, notamment des professeurs, contre l’usage des techniques d’IA. Cette position conduit à l’abandon des étudiants face aux IA et laisse intact le pouvoir qu’elle prétend contrer.
Le déploiement des outils d’intelligence artificielle suscite en France de légitimes inquiétudes, notamment les IA génératives de type Gemini, ChatGPT… Le capitalisme numérique, fondé sur diverses techniques d’IA (symboliques, connexionnistes…) depuis longtemps, fragilise la démocratie, lamine la vie privée, alimente la désinformation, fragmente les sociétés, concentre les pouvoirs, favorise l’autoritarisme, menace les enfants, détruit des emplois, exacerbe les inégalités, ignore les travailleurs invisibles, consomme des ressources disproportionnées, déstabilise l’enseignement et beaucoup d’autres secteurs...
Exiger un moratoire sur le développement des applications d’intelligence artificielle, comme l’ont fait de nombreux scientifiques, a du sens, et soutenir ces demandes pour qu’elles soient entendues aussi, même si elles sont encore ignorées. Mais certains appellent aujourd’hui au refus de ces techniques dans les universités au nom d’une « objection de conscience » qui ressemble à un réflexe d’inquiétude politiquement et intellectuellement mal orienté.
Laisser ces technologies entre les mains d’oligopoles sans développer la capacité critique de celles et ceux qui n’y ont pas accès, ce n’est pas résister au capitalisme numérique : c’est s’y soumettre. Dans toutes les époques, lorsque l’usage d’un outil fut réservé à ceux qui en avaient le monopole économique — l’imprimerie, la statistique, l’informatique — la conséquence fut la concentration du pouvoir, non sa contestation.
Agrandissement : Illustration 1
La mission de l’université n’a jamais consisté à ignorer ce qui se passe dans la société, mais à en construire la compréhension critique. Ce principe vaut pour les armes nucléaires, les marchés dérivés, les données biométriques — et il vaut aujourd’hui pour l’IA.
L’université, espace d’enquête et d’expérimentation, peut aussi contribuer à l’invention d’usages sobres, libres et collectifs de ces techniques, en rupture avec les logiques de prédation qui les ont produites.
Nous vivons un fait social : ces outils sont déjà utilisés quotidiennement par un grand nombre de travailleurs, dans le privé comme dans le public, souvent sans formation et sans règles. Ne pas les enseigner, c’est livrer les étudiants au désarroi. Ce n’est pas un acte d’écologie, de rationalité ou d’émancipation : c’est un abandon.
L’objection de conscience face au port des armes impliquait sanctions, prison, service long, refus d’embauche. Celle-ci n’engage aucune conséquence personnelle et exige qu’on laisse les étudiants se débrouiller seuls.
Notre responsabilité universitaire n’est pas d’organiser l’aveuglement, mais d’éclairer le réel. L’esprit critique ne se forme pas en décrétant un tabou, mais en analysant l’objet. Refuser l’IA dans l’université ne l’empêche pas d’exister : cela empêche les citoyens d’y comprendre quelque chose. Et demain, ceux qui maîtriseront ces techniques ne seront ni les collectifs démocratiques ni les syndicats, mais ceux dont les usages servent des intérêts dominants.
On ne lutte pas contre une domination en quittant le terrain sur lequel elle s’exerce. On y entre, on y met des règles, on y forme des intelligences, on y fait apparaître des contre-pouvoirs. Cela ne revient pas à « promouvoir » l’IA, mais à refuser d’en être les spectateurs impuissants.
Le rejet pur et simple laisse intactes les structures capitalistes que l’on prétend combattre. La maîtrise collective — même inquiète, même conflictuelle — par la recherche et la discussion, ouvre la possibilité de la critique et, parfois, de la transformation.
C’est pourquoi l’université n’a pas sa place en terrain interdit, mais au cœur de l’analyse, de la transmission et de la confrontation rationnelle. Nous n’avons pas besoin d’un tabou supplémentaire : nous avons besoin d’un savoir partagé, d’un raisonnement lucide, d’un espace où l’on pense ensemble — y compris ce qui inquiète.
Cette position n’est ni technophile ni naïve : l’IA n’est pas neutre ; laissée hors du champ universitaire, elle demeure sous la maîtrise exclusive des structures capitalistes à critiquer. Il ne s’agit pas d’adopter l’IA mais de la désarmer. Il ne s’agit pas de faire confiance dans la technique mais de faire confiance dans l’intelligence collective pour défendre l’humanité.
Signataires :
Didier Bigo (Science Po Paris / University of Liverpool),
Patrick Bruneteaux (CNRS),
Arnaud Lechevalier (Université Paris 1 Panthéon-Sorbonne),
Laetitia Della Torre (Docteure de l’Université de Technologie de Compiègne),
Jean Frayssinhes (Université de Toulouse Jean-Jaurès),
Fabien Guillot (Université de Caen Normandie),
Pascal Jollivet (Université de Technologie de Compiègne),
Sanae Kasmi (Université Euro-méditerranéenne de Fès)
Olivier Le Cour Grandmaison (Université d’Evry-Val-d’Essonne),
Yann Moulier Boutang (Université de Technologie de Compiègne)
Florent Pasquier (Sorbonne Université)
Julien Rossi (Université Vincennes - Saint-Denis)
Jérôme Valluy (Université Paris 1 Panthéon-Sorbonne),
Carlo Vercellone (Université Vincennes - Saint-Denis)