Bruno Alternative (avatar)

Bruno Alternative

Lecteur

Abonné·e de Mediapart

11 Billets

0 Édition

Billet de blog 16 janvier 2026

Bruno Alternative (avatar)

Bruno Alternative

Lecteur

Abonné·e de Mediapart

Le paradoxe sémiotique de l’IA générative : enjeux communicationnels et de création

Bruno Alternative (avatar)

Bruno Alternative

Lecteur

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

ChatGPT, MidJourney, Gemini, Claude AI… les services numériques qui proposent des outils de génération de contenus et des « agents conversationnels » se multiplient depuis fin 2022. En 2025, 40 % des Français (74 % dans la catégorie 18-24 ans) déclarent utiliser l’IA dans des cadres privés et professionnels1. Plus de la moitié des entreprises utiliseraient en 2025 des services basés sur l’IA générative2. Si chaque service d’IA présente des spécificités, tous ont en commun de promettre des capacités de « création » de contenus intelligibles par l’homme et de tenue de « conversations » contextualisées.

« Elle peut apprendre le langage humain » (Amazon).

« Nos modèles sont conçus pour comprendre le contexte, générer du contenu et suivre un raisonnement à partir de texte, d’images et d’autres médias » (Open AI)

Les institutions et décideurs publics confortent la croyance en ces capacités inédites permises par l’artificialisation de l’intelligence : « Les machines ont commencé à comprendre et interagir avec le monde. »3. « Certains prédisent que des modèles rivalisant avec le raisonnement humain pourraient émerger d'ici un an »4.

Le développement de l’IA doit être situé dans une histoire ; une histoire des techniques, qui tendrait à la considérer comme d’autres innovations technologiques avant elle, mais aussi dans une histoire anthropologique, des relations que nous entretenons avec ces technologies et des normes qu’ils contribuent à instaurer dans la structuration de nos sociétés humaines (Ménissier, 2022).

D’autant plus qu’ils renvoient à des mythes ontologiques anciens de prolongement, voire de dépassement de l’intelligence humaine par les machines, ces discours ont rapidement incité à des usages massifs de ces IAs génératives dans la plupart des contextes privés et professionnels.

Si des « biais », « hallucinations » et risques sont identifiés, l’IA générative semble au premier coup d’oeil tenir ses promesses : ses productions textuelles ont l’apparence de textes, ses productions audiovisuelles ont l’apparence d’images, de sons, de vidéos, ses contributions aux conversations ont l’apparence d’être sensées et constructives.

Pour autant, les IAs génératives produisent-elles vraiment des textes, des images ? Communiquent-elles vraiment ? Quelle est, au fond, la part d’artifice dans ce qui apparaît comme autant de formes d’intelligences ? Les principes mêmes des modèles stochastiques, basés sur les probabilités de récurrences de tokens, ne sont-ils pas contradictoires avec les processus humains de création et de communication, basés sur la pensée et la construction de sens ? Même artificielle, l’intelligence vue comme capacité à construire un sens peut-elle être réduite au calcul rationnel ?

Nous posons ici l’hypothèse d’un paradoxe sémiotique propre à l’IA générative : par essence, les modèles de langage ne travaillent pas les signes et leurs sens, et pourtant, nous conférons à leurs productions des propriétés sémiotiques en les considérant comme des textes à partir desquels nous construisons nos représentations du monde.

Nous préciserons les formes de ce paradoxe puis envisagerons (dans un article accessible ici) les enjeux qu’il pose aux principes jusqu’ici établis de la communication, vue comme processus de pensée contextualisé, et de la création artistique, vue comme source de représentations alternatives du monde.

1. Le paradoxe sémiotique de l’IA générative : produire du sens sans pensée

Par essence, et sous différentes formes, les modèles d’IA générative consistent en une analyse probabiliste de relations de proximité entre des « tokens », des unités lexicales ou grammaticales, dont le nombre est par ailleurs techniquement limité. Des informations contextuelles sont de plus en plus prises en compte dans les phases d’optimisation de l’apprentissage, mais la logique probabiliste reste au coeur des principes de fonctionnement des IAs génératives. Cela justifie que ces modèles soient « enrichis », dans des phases de supervision ou de renforcement, via des apprentissages, dont des jeux de « questions-réponses » générés et corrigés par des humains et par les utilisateurs eux-mêmes.

Pourtant, lorsque nous lisons, voyons ou entendons la production d’une IA générative, nous y cherchons et y trouvons du sens. Nous appréhendons ce qui est généré comme un texte, c’est à dire un « contenu » porteur en lui-même d’un « capital sémiotique », d’une immanence à partir desquelles nous construisons sens, représentations et interactions.

L’IA générative produirait donc des formes sémiotiques, à l’apparence d’un langage, que A.-J. Greimas définit comme « sens du sens » (1970). Cette apparence de langage sensé (et sans doute est ici l’artifice), nous incite à y chercher le sens du réel. Nous nous comportons donc face à l’IA comme si le langage qu’elle semble nous tenir résultait d’un processus de mise en sens du réel.

Mais il n’en est rien : nous retrouvons avec l’IA générative un (second) apparent paradoxe souligné par Gaston Bachelard (1966, p. 126), cité par Waldir Beividas (2024) : « en fait, les données sont ici des résultats »  d’une « épistémologie discursive » incarnée par le dispositif technique. Le sens donné au réel n’est pas immanent aux choses mais est le résultat d’une perception, vécue par l’intermédiaire d’un dispositif technique. Lire la production d’une IA générative impliquerait donc que nous soyons en capacité de comprendre précisément les modalités selon lesquelles le dispositif technique est structuré et opère ; or, cela nous reste à ce jour inconnu car couvert par le secret industriel.

Par la production d’un discours (selon ses propres logiques, ici statistiques), l’IA générative apparaît donc comme un dispositif « phénoménotechnique » de construction du réel, « une technique d’organisation de phénomènes » (Bachelard, 1949, p. 199). L’IA générative donne une existence au réel. Mais ce qui différencie l’IA de toute autre technique de formalisation du réel (dont le langage), est l’absence, dans les modèles qui constituent ce dispositif technique, de tout processus de pensée du lien entre un signe et son référent. L’IA générative parle pour ne rien dire, en quelque sorte.

Dès lors, l’origine du « sens du sens » est à chercher ailleurs, du côté du récepteur. Comme le proposait M. Merleau-Ponty (1945), ce serait ainsi l’acte de « perception » qui vaudrait pour interprétation, qui donnerait du sens à la forme discursive. Le sens ne serait donc pas substantiel au texte mais produit par celui qui cherche à le produire : une corporéité comme condition de l’expérience de perception du sens.

L’attribution de sens aux productions des IAs génératives relèverait alors d’un processus intentionnel de subjectivation qui consiste à percevoir dans ces productions ce qui précisément en est attendu par le sujet.

Notre paradoxe sémiotique de l’IA se formule donc ainsi : si l’IA générative ne travaille pas, par la pensée, de concepts et de signifiants culturels, mais réagence de manière probabiliste et inintentionnelle des tokens ou nèmes dénués de sens, nous recevons néanmoins ses productions comme signifiantes, comme porteuses de référents et de sens à reconstruire.

Le cadre de référence, et précisément la croyance en la capacité du chatbot ou de l’IA à construire une pensée et à adapter la construction de son discours à chacun de nous, prend ici une importance centrale. Autrement-dit, c’est chacun de nous qui, par sa foi en cette capacité, confèrerait une forme d’intelligence à l’IA dont elle serait totalement dépourvue.

L’IA générative n’a donc que peu à voir avec une machine à penser autonome. Au mieux peut-on la considérer comme un automate perfectionné qui, après les avoir digérées selon des principes qui nous sont inconnus, produirait des reflets nécessairement partiels et déformés de traces (exclusivement numériques et statistiquement pertinentes) de nos connaissances et interactions communicationnelles. Le travail de l’IA générative ne peut même pas être appréhendé comme un travail de symboles (Renucci & al., 2020), ce qui impliquerait non seulement une compréhension du sens porté par des signifiants (mots, images, paroles, sons), mais aussi, et surtout, la portée de ce sens dans un contexte social et culturel singulier.

> ..:: La suite de ce billet est accessible ici ::..

1Source : Ipsos, « Intelligence artificielle, quels sont les usages des Français ? », 10 février 2025. https://www.ipsos.com/fr-fr/intelligence-artificielle-quels-sont-les-usages-des-francais

2Source : Stanford University, « The 2025 Artificial Intelligence Index Report », 2025, https://hai.stanford.edu/ai-index/2025-ai-index-report

3Source : Hervé Tourpe, Fonds Monétaire International, « Promesses et périls de l’intelligence artificielle », Décembre 2023. https://www.imf.org/fr/Publications/fandd/issues/2023/12/B2B-Artificial-Intelligence-promise-peril-Tourpe

4Source : Commission Européenne, « Discours de la Présidente von der Leyen à l'occasion du Sommet pour l'action sur l'intelligence artificielle », 11 février 2025. https://ec.europa.eu/commission/presscorner/detail/fr/speech_25_471

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.