À bien des égards, nous vivons aujourd’hui dans une société de l’information. Il devient en effet difficilement possible de mener notre vie, sous ses différents aspects — qu’ils soient professionnels, citoyens ou personnels —, en faisant l’économie d’un traitement presque constant d’informations diverses et variées, et originaires de sources très hétéroclites. Dans un tel contexte, faire le tri entre « bonnes » et « mauvaises » informations, c’est-à- dire entre celles qui s’avèrent — et celles qui ne s’avèrent pas — légitimes comme sources de nos actions, constitue un exercice compliqué.
Face à celui-ci, une stratégie collective s’est naturellement instituée sous la forme d’une fragmentation du travail cognitif. Nous avons en effet pris l’habitude de déférer le travail d’évaluation des informations que nous rencontrons à différents experts qui, eux, possèdent les compétences requises pour évaluer correctement la qualité́ de ces informations à notre place. Sans même évoquer ici le recours à divers « consultants », nous sollicitons ainsi volontiers des architectes, des médecins ou des comptables en fonction de la nature de nos besoins en informations fiables relatives à ces champs respectifs d’activité́ ou de connaissance.
Le paradoxe de l’expertise
Cela étant, cette déférence à la parole experte conduit à une situation qui prend les allures d’un paradoxe. Car en effet, si nous en appelons à un·e expert·e pour évaluer une information à notre place, c’est bien parce que nous n’avons pas nous-mêmes les compétences ou connaissances requises pour accomplir ce travail d’évaluation. Mais dans ce cas de figure, comment pouvons-nous savoir si la parole experte — qui ne constitue rien d’autre, pour nous, qu’une nouvelle information — est elle-même « bonne » ou « mauvaise » (ou, à tout le moins, en quelles proportions) ? Paradoxalement, c’est ainsi précisément l’absence d’expertise de notre part qui signe notre besoin d’en déférer à des experts et, dans le même mouvement, nous condamne à être incapable de jauger la qualité́ de leur parole. Par l’autre bout : si nous étions en capacité d’évaluer la parole experte, c’est que nous aurions les compétences ou connaissances qui, justement, nous dispenseraient d’avoir à y recourir.
En réalité́, un tel « paradoxe » est évitable. En l’absence de compétences dans un champ donné, nous évaluons généralement la qualité́ de la parole d’experts par l’entremise d’indicateurs extrinsèques au champ en question. Ceux-ci sont typiquement de nature sociale. La personne mobilisée a-t-elle bien les compétences requises (ce qui est par exemple attesté par son obtention d’un diplôme approprié) ? Est-elle mandatée par une institution sérieuse garante de la qualité́ de sa parole (comme par exemple une université́ reconnue) ? Est-elle en situation de conflits d’intérêts ? A-t-elle un passif d’erreurs ou de propos mal avisés ? Les réponses à ces différentes questions constituent autant d’indices, certes faillibles mais exploitables sans compétences particulières, pour évaluer la mesure dans laquelle la parole convoquée est fiable pour nous aider à évaluer la qualité́ des informations que nous rencontrons.
ChatGPT, l’expert·e idéal·e ?
Est arrivé ChatGPT, cet agent conversationnel redoutable dans sa capacité à imiter des compétences linguistiques humaines relatives à la génération de texte (comme par exemple synthétiser, reformuler, traduire ou encore coder). Cet agent est d’ailleurs parfois aussi considéré́ comme une nouvelle source de parole experte, voire même comme l’expert universel qui pourrait nous assister, sans restriction aucune de champ, dans l’évaluation d’informations ou même, directement, dans l’obtention d’informations fiables. À cet égard, il est troublant de constater la vitesse à laquelle d’aucuns, qu’ils soient juristes, journalistes, enseignants ou étudiants, ont développé́ ce réflexe qui consiste, face à un questionnement de n’importe quel genre, à se contenter de « demander à ChatGPT »[1].
Mais une double mise en garde s’impose à tout un chacun qui serait tenté d’adopter, surtout de façon systématique, un tel réflexe. Premièrement, il est aujourd’hui reconnu que ChatGPT, en dépit de ses qualités spécifiques, constitue un outil particulièrement perfectionné pour produire du « baratin », dans le sens particulier qu’on donne à ce terme en philosophie, à savoir celui qui consiste à s’exprimer de façon insensible à toute norme de vérité́[2]. De par son fonctionnement même (qui consiste essentiellement à prédire la suite de mots la plus probable face à un ensemble de mots donnés en entrée par l’utilisateur), ce que ChatGPT affirme n’est en effet guidé que par une logique d’imitation des propos ingérés lors de son entraînement et non par la recherche d’une quelconque adéquation à la réalité́.
Ensuite et surtout, dans son mode de fonctionnement actuel, ChatGPT s’englue en plein dans le « paradoxe » de l’expertise discuté plus haut. Impossible en effet face à ce chatbox de mobiliser quelques indicateurs — comme le diplôme, l’institution garante, les conflits d’intérêts ou le track-record —, dans la mesure où ce dernier procède en mode « boite noire », dans le sens où sont occultées toutes les raisons pour lesquelles on pourrait ou non lui faire confiance. À l’heure où on nous martèle, avec raison, qu’« il ne faut pas croire tout ce qu’on entend ou lit », ou alors qu’on ne peut le faire qu’à la condition d’avoir préalablement identifié l’auteur des propos, ses motivations, son contexte de parole et ses intérêts, il peut sembler surprenant que soit ainsi accordée la confiance à une interface qui rend impossible une telle identification. Personne ne sait pourquoi ChatGPT dit exactement ce qu’il dit en réponse à un input donné. Alors comment pourrions-nous lui faire confiance, nous qui, par définition si nous faisons appel à lui, n’avons pas les compétences requises pour déceler ce qui, dans ce qu’il profère, est vraisemblable ou ouvertement faux ?
ChatGPT est, à bien des égards, un merveilleux outil et une belle opportunité́ pour repenser certains de nos rapports à la production linguistique. Mais ceci ne devrait pas occulter l’importance pour nous, humains, et plus que jamais, d’exercer face à cet outil cette faculté́ dont nous avons encore aujourd’hui l’apanage, à savoir celle, critique, de faire preuve de jugement.
Olivier Sartenaer enseigne la philosophie des sciences, la logique et l’argumentation à la Faculté des Sciences de l’Université de Namur.
Pour Carta Academica (https://www.cartaacademica.org/).
Les points de vue exprimés dans les chroniques de Carta Academica sont ceux de leur(s) auteur(s) et/ou autrice(s) ; ils n’engagent en rien les membres de Carta Academica, qui, entre eux d’ailleurs, ne pensent pas forcément la même chose. En parrainant la publication de ces chroniques, Carta Academica considère qu’elles contribuent à des débats sociétaux utiles. Des chroniques pourraient dès lors être publiées en réponse à d’autres. Carta Academica veille essentiellement à ce que les chroniques éditées reposent sur une démarche scientifique.
[1] Dans certains milieux, l’outil est d’ailleurs déjà employé, non simplement à titre consultatif, mais en tant que substitut pur et simple des humains pour « produire » de l’information. Dans le contexte du journalisme, voir p. ex. : https://www.theguardian.com/commentisfree/2023/mar/03/fake-news-chatgpt-truth-journalism-disinformation ; dans le contexte de l’éducation supérieure et des potentiels problèmes de tricherie qui en découlent, voir : https://www.science-et-vie.com/technos-et-futur/chatgpt-lintelligence-artificielle-qui-aide-a-tricher-2-99388.html.
[2] Voir p. ex. : https://www.science.org/content/blog-post/thoughts-chatgpt-and-its-ilk ; ou : https://nautil.us/welcome-to-the-next-level-of-bullshit-237959/. L’expression « baratin » est peut-être la moins mauvaise traduction du terme anglais « bullshit » popularisé par le philosophe américain Harry Frankfurt dans son désormais best-seller On Bullshit. Pour une analyse récente en français, voir Dieguez, S. (2018). Total bullshit ! Au cœur de la post-vérité. Paris : PUF.