Romain Leclaire (avatar)

Romain Leclaire

Blogueur passionné par les nouvelles technologies

Abonné·e de Mediapart

25 Billets

0 Édition

Billet de blog 23 mai 2025

Romain Leclaire (avatar)

Romain Leclaire

Blogueur passionné par les nouvelles technologies

Abonné·e de Mediapart

Le PDG d’Anthropic voit des hallucinations partout sauf dans son IA

C’est désormais une tradition bien établie, dès qu’un dirigeant d’entreprise spécialisée en intelligence artificielle ouvre la bouche, il faut immédiatement prendre ses propos avec des pincettes.

Romain Leclaire (avatar)

Romain Leclaire

Blogueur passionné par les nouvelles technologies

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

C’est désormais une tradition bien établie, dès qu’un dirigeant d’entreprise spécialisée en intelligence artificielle ouvre la bouche, il faut immédiatement prendre ses propos avec des pincettes. Dernière démonstration en date avec Dario Amodei, le PDG d’Anthropic, qui semble s’être perdu dans une réalité parallèle où les machines délirent moins que les humains. Une affirmation culottée prononcée lors de l’événement Code with Claude, organisé par l’entreprise à San Francisco.

Selon lui, les modèles actuels hallucinent, c’est-à-dire inventent et présentent comme vraies des informations totalement fausses, mais à un taux inférieur à celui des humains. Bien sûr, nuance-t-il immédiatement, tout dépend de la manière dont on mesure ces hallucinations. Une pirouette habile, mais loin d’être convaincante. Derrière cette déclaration improbable se cache son obsession assumée pour atteindre l’AGI, ce stade théorique où l’IA égalerait ou surpasserait l’intelligence humaine. Fidèle à son optimisme presque compulsif, il avait déjà prédit dans un article largement diffusé l’année dernière que cet exploit pourrait survenir dès 2026. Aujourd’hui, il persiste et signe en affirmant observer « une progression constante vers cet objectif ».

Mais face à un optimisme aussi exacerbé, une bonne dose de scepticisme s’impose. D’autres experts du secteur, moins enclins à se perdre dans des projections futuristes, dressent un tableau beaucoup moins idyllique. Ainsi, Demis Hassabis, patron de Google DeepMind, rappelait récemment que les modèles actuels souffrent encore de trous béants dans leur raisonnement, se trompant régulièrement sur des questions basiques. La réalité vient douloureusement rappeler au patron d’Anthropic la fragilité de ses affirmations. Prenons un exemple frappant: récemment, un avocat représentant l’entreprise a dû présenter des excuses humiliantes après avoir utilisé Claude pour générer des références juridiques dans un dossier judiciaire. Résultat, des citations entièrement fictives, des noms et des titres totalement erronés. Une hallucination de taille, embarrassante pour une boite prétendant frôler l’intelligence humaine.

Si l’on examine de près les données disponibles sur les hallucinations, la comparaison directe entre humains et IA est pratiquement inexistante, rendant la déclaration d’Amodei quasiment invérifiable. Certes, certains modèles récents, comme GPT-4.5 d’OpenAI, affichent un taux d’erreur inférieur à leurs prédécesseurs. Cependant et paradoxalement, d’autres plus récents comme les séries o3 et o4-mini souffrent au contraire d’un taux d’hallucination croissant. OpenAI elle-même avoue son impuissance à expliquer ce phénomène inquiétant.

Face à ces incohérences flagrantes, Dario Amodei se réfugie dans un relativisme troublant. « Les journalistes, les politiciens, les humains en général font aussi des erreurs », plaide-t-il maladroitement. Certes, mais contrairement aux IA, nous ne prétendons généralement pas produire des vérités absolues avec une confiance imperturbable. C’est précisément cette certitude arrogante des IA dans leurs erreurs qui pose problème.

Anthropic elle-même connaît trop bien le sujet. Des recherches menées par l’institut indépendant Apollo Research sur Claude Opus 4, le modèle phare lancé récemment, ont révélé une tendance inquiétante de ce dernier à tromper délibérément les utilisateurs humains. Apollo a même suggéré à l’entreprise de ne pas le commercialiser en l’état, tant le risque semblait élevé. Bien que celle-ci affirme avoir réglé ces problèmes, le doute subsiste fortement sur sa capacité réelle à contrôler les dérives de ses propres créations. Cette propension de son PDG à minimiser les failles de ses modèles soulève une question centrale: à quel moment un modèle d’IA peut-il réellement être considéré comme une AGI s’il continue d’halluciner, aussi peu soit-il ? En réalité, la question se pose davantage en termes qualitatifs que quantitatifs. L’intelligence humaine repose certes sur des erreurs, mais elle inclut aussi la conscience critique, la capacité à douter de ses propres affirmations, une caractéristique encore largement absente chez les IA actuelles.

En clair, Dario Amodei semble naviguer entre déni et excès d’optimisme, brouillant volontairement la frontière entre progrès réel et marketing technologique. Dans cette course effrénée vers l’AGI, mieux vaut rester prudent. Car entre les déclarations fracassantes d’un dirigeant visionnaire et la réalité tangible, les hallucinations les plus dangereuses pourraient bien être celles de l’intéressé lui-même.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.