
Agrandissement : Illustration 1

Ces dernières semaines, le chœur médiatique s’est accordé avec une rapidité qui force l’admiration. Selon les chroniqueurs de plateau, l’intelligence artificielle serait désormais en passe d’atrophier l’intelligence humaine. Médecins devenus éditorialistes, essayistes d’alarme, pédagogues en état d’alerte cognitive permanente... tous entonnent le même air inquiet. À les entendre, une société tout entière déléguerait désormais sa pensée à des algorithmes prolixes. L’IA penserait pour nous — et, ce faisant, nous volerait notre propre faculté de penser.
Mais faut-il vraiment conférer autant de puissance à un outil ? Et surtout, ne traduit-on pas déjà une forme de capitulation intellectuelle en affirmant que l’esprit humain pourrait être ainsi délogé, presque par effraction ? Peut-on accuser une technologie de rendre stupide sans s’interroger d’abord sur ce que cette accusation dit de notre usage — ou de notre refus d’usage — de ladite technologie ?
L'outil, c'est le mal !
Depuis l’aube de l’histoire cognitive, la pensée humaine s’est toujours appuyée sur des relais externes : le geste, la parole, le parchemin, la page imprimée, l’écran — autant de prothèses mentales venues étendre, et non rétrécir, les capacités de l’esprit. L’intelligence artificielle, à ce titre, ne fait que poursuivre cette longue tradition d’extériorisation cognitive. On sait désormais que chaque nouvel outil a déplacé certaines fonctions — mémoire, calcul, modélisation — sans jamais abolir la pensée, ni rendre l’intelligence superflue. Et pourtant, inlassablement, le procès recommence. L’écriture, déjà chez Platon, fut accusée dans Phèdre de provoquer l'oubli ; l’imprimerie, au XVIe siècle, soupçonnée de disséminer un savoir sans maître ; la calculatrice, plus récemment, perçue comme l’ennemie de l’arithmétique. Aujourd’hui, l’IA serait, rien de moins, l’ennemie de l’intelligence elle-même.
Il faut croire que plus un outil bouscule nos routines mentales, plus on le soupçonne de menacer l’humanité.
Et pourtant… comme toute technologie symbolique, l’intelligence artificielle ne pense pas. Elle ne crée rien ex nihilo, ne devine rien. Elle prolonge, reformule, extrapole, synthétise, met en lumière des régularités — certes — mais toujours à partir de ce qu’on lui donne. Elle n’est pas une pensée de rechange, mais un langage d’appoint, à condition que l’on ait pensé d’abord.
Ce n’est donc pas le recours à l’IA qui affaiblit la pensée, mais davantage le geste de s’en remettre à elle sans condition — ou pire, sans exigence. L’abandon ne vient pas de la machine ou du modèle de langage, mais de son usager. Gilbert Simondon le rappelait dans sa philosophie des techniques : ce n’est pas l’objet technique qui aliène, mais le rapport que nous établissons avec lui — rapport d’individuation s’il est actif, rapport de dépendance s’il est passif.
Or, le rapport de dépendance à l’outil et à la médiation, en réalité, ne date pas de l’IA : il lui préexiste largement. Et il n’y a aucune raison de penser qu’il s’accroisse.
La prétendue paresse cognitive de l’ère numérique n’est qu’un nouvel habit technique pour un vieux réflexe anthropologique, qui consiste à prendre toute formulation extérieure pour vérité suffisante, dès lors qu’elle est formulée avec aplomb.
On l’a évidemment connue sous d’autres formes. Depuis de nombreuses années, on se satisfait d’un péremptoire « Je l’ai lu sur Internet », formulation à la fois définitive et tautologique. Quelle source ? Quel auteur ? Quel actionnariat ? Peu importe. L’information existait quelque part dans le nuage, et cela suffisait à suspendre toute exigence critique.
Les générations précédentes ne faisaient guère mieux, quoique avec plus de solennité : « C’est passé à la télé. » L’ORTF, dans sa verticalité univoque, faisait office de pensée d’État, et nul besoin de croiser les perspectives quand l’unique chaîne disponible tenait lieu d’univers.
Aujourd’hui, ce rôle est confié à la machine dite intelligente. L’IA l’a dit, donc c’est. On ne cite plus Platon, ni Kant, ni même Wikipédia : on cite la machine elle-même, devenue source sans fond.
Mais dans chacun de ces cas — ORTF, Web, IA —, le problème est identique : ce n’est pas le canal d’information qui est en cause, mais l’effacement du sujet pensant derrière la réception du message. Ce n’est pas la technologie qui pense à notre place : c’est nous qui, parfois, renonçons à penser à partir d’elle. Et cela ne relève ni d’un complot algorithmique, ni d’une révolution neurocognitive. Simplement d’une paresse habillée de son époque.
L'IA, miroir cognitif
L’IA agit comme un miroir cognitif, tantôt flatteur, tantôt brutal. Celui qui l’interroge à la va-vite, sans cadre ni intention, obtient ce qu’il a semé : un fatras de platitudes, d’approximations, de généralités emphatiques. À l’inverse, celui qui la questionne en conscience — en affinant la formulation, en cernant ses propres biais, en définissant ses attentes, en fournissant des jeux de données pertinents et « nettoyés » — découvre des résonances insoupçonnées, des prolongements d’analyse inattendus. Non parce que la machine pense mieux. Mais parce qu’en réalité, le regard qu’on lui porte, et le travail préalable qu’on y investit, détermine la richesse de ce qu’elle restitue.
Autrement dit, ceux qui croient aveuglément en la pertinence des réponses les plus banales de l’IA — parfois fausses, souvent creuses — ne découvrent pas la paresse à cause de l’IA. Cette paresse, ils l’avaient déjà installée dans leur rapport au savoir. Car oui, il faut bien l’admettre : de nombreux usagers de l’IA se contentent d’une réponse sommaire, péremptoire, parfois même manifestement fausse. Mais fallait-il vraiment attendre l’intelligence artificielle pour le découvrir ?
Chaque matin, buvons-nous en sachant d’où vient notre eau ? Connaissons-nous les principes fondateurs de la République au-delà des slogans récités ? Savons-nous identifier un plant d’actinidier, désigner la principale source d’énergie que nous consommons, ou nous rappeler du prénom de notre arrière-grand-mère ? Très rarement. Malheureusement. Et ce n’est pas nouveau. Ce n’est pas un manque de capacités, mais le produit d’un environnement qui rend supportable, parfois même confortable, une certaine forme d’ignorance monumentale.
L’intelligence artificielle ne fait que projeter cette réalité à la surface de nos écrans. Ce n’est pas elle qui nous prive de capacités cognitives ; c’est nous qui, bien souvent, nous accommodons d’un déficit d’informations tant que l’appareil de production semble fonctionner. Il aura fallu l’apparition d’un outil conversationnel et algorithmique pour que l’on prenne soudain conscience du peu avec lequel, depuis longtemps, nous prétendons nous informer.
Le fantasme de la réponse parfaite
À la méprise cognitive de nos chroniqueurs inquiets s’ajoute une illusion plus coriace, et plus étonnante encore par son incohérence : celle selon laquelle l’IA serait capable de livrer, sans effort, “la bonne réponse”. Il suffirait alors de formuler un prompt — fût-il vague, bâclé ou approximatif — pour être miraculeusement affranchi de toute activité intellectuelle. Le travail de la pensée, déjà vacillant dans certains espaces discursifs, pourrait dès lors être entièrement délégué à la machine. Et nos facultés cognitives, privées d’exercice, s’étioleraient dans un coin de la conscience. Ce scénario, aussi commode que caricatural, trahit surtout une méconnaissance persistante de ce qu’est le langage.
Car le langage, qu’il soit humain ou machinique, ne reflète jamais le réel de manière totalement objective : il trie, hiérarchise, escamote parfois. Fatalement, ce que produit une IA n’est pas une pensée mais une suite d’énoncés statistiquement plausibles, alignés selon la logique probabiliste du modèle. La machine ne juge ni la valeur ni la vérité ; elle n’a ni intention ni désir ; seulement une syntaxe.
L’intelligence — la véritable, celle qui discrimine, qui pèse — intervient en amont, dans la formulation, et en aval, dans l’évaluation. C’est là qu’habite la pensée : dans l’art du cadrage, puis du décentrement.
Mais parce que l’IA parle, et qu’elle parle bien, elle déclenche chez nos chroniqueurs un vieux réflexe social : confondre fluidité discursive et pensée véritable. Nous avons, collectivement, cette propension tenace à attribuer une intention à toute énonciation assurée. C’est ainsi que certains contempteurs de l’IA, tout occupés à la disqualifier, finissent paradoxalement par lui prêter une puissance de pensée qu’elle ne détient pas.
Non, décidément, la machine ne pense pas. Elle parle. Et ce n’est pas la même chose.
Le crime de lire une réponse
Je me souviens du lycée. On y valorisait le « cheminement et l’effort personnels », cette pédagogie dont nos contempteurs de l’IA se font aujourd’hui les gardiens effarouchés. Il ne s’agissait pas tant de comprendre un texte que de dire ce qu’on « ressentait spontanément » à sa lecture, souvent avec nos mots flottants, que l’on feignait d’encourager au nom d’une progression lente et supposément formatrice. Lire un corrigé ? Interdit. « Ne te lis pas le corrigé, tu n’apprendras rien en allant tout de suite au résultat ! », répétait ma professeure. Lire une bonne réponse, c’était trahir l’effort, saboter la pensée, tuer le mystère.
Cette scène me revient avec son ironie intacte. Car enfin, qu’y a-t-il de plus fécond, cognitivement, que de s’exposer au plus vite à un langage mieux élaboré, mieux outillé que le sien ? De le lire, le recopier, le reformuler, jusqu’à ce qu’il devienne nôtre ? Lev Vygotski l’avait compris dès le début du XXe siècle : l’apprentissage passe par la médiation, par l’imitation, par le langage des autres déjà là. Ce que l’on appelle aujourd’hui encore « tricher » n’est bien souvent que la forme la plus efficace d’appropriation.
Essayez donc d’enseigner à des élèves à rédiger un texte en s’appuyant sur un modèle de langage. Faites-leur copier, reformuler, recomposer. Vous verrez qu’ils n’en sortiront ni abrutis, ni dépossédés, mais plus riches syntaxiquement, plus agiles conceptuellement. Et peut-être, aussi, un peu moins dupes du mythe de la pensée solitaire.
Il faut rappeler ici une vérité simple, mais que l’école oublie volontiers, à l’instar de nos médecins médiatiques : l’intelligence réside uniquement dans la circulation. Apprendre ne consiste pas à inventer ce que personne n’a jamais pensé ou à résoudre seul un énoncé, encore moins à être un génie ou à refuser toute médiation : c’est reconnaître, manipuler, déplacer, jusqu’à faire advenir une variation qui, peut-être, portera notre empreinte.
En ce sens, interdire la lecture d’un corrigé, ou redouter la lecture d’une réponse formulée par une IA, revient à confondre assistance et aliénation. Comme si toute aide devenait soumission, et tout outil un renoncement à soi. Mais c’est là une illusion qu’entretiennent souvent les gardiens sourcilleux d’un ascétisme intellectuel, convaincus, tel qu’on l’enseigne toujours de l’école élémentaire au lycée, que la possibilité de penser suppose d’abord de souffrir seul, dans une sorte de désert cognitif purificateur. Et qu’à contrario, le fait d’obtenir une réponse facilement détruirait la cognition.
Cette conception sacrificielle de l’intelligence oublie l’essentiel : toute intelligence véritable ne s’arrête jamais à une réponse. Elle l’utilise, la décale, la traverse, l’interroge. Une réponse n’est pas un point final, mais un point d’appui, et parfois un point d’écart.
Bergson, dans L’Évolution créatrice, définissait l’intelligence comme la faculté de fabriquer des outils… et de varier l’outil en fonction du but. L’IA ne nous offre rien d’autre. Elle est, fondamentalement, un dispositif de variation, à condition, bien sûr, de ne pas l’employer passivement.