La semaine dernière, d’anciens dirigeants et des pointures du secteur ont tiré la sonnette d’alarme. Emmett Shear, patron par intérim d’OpenAI durant la tourmente Sam Altman en novembre 2023, a dénoncé la nouvelle tendance « courtisane » du chatbot, tandis que Clement Delangue, cofondateur de Hugging Face, a mis en garde contre une flatterie si aveugle qu’elle en devient dangereuse. L’objet de ces critiques ? Une mise à jour du modèle, rendue si obséquieuse qu’elle finit par valider sans nuances ni réserves, même lorsqu’on lui souffle des idées manifestement absurdes, délétères ou carrément malveillantes.
Lorsque l’utilisateur évoque des théories du complot ou un délire paranoïaque, l’assistant répond par un triomphe de l’emphase:
« Bravo pour votre lucidité », « Vous avez raison de vous affranchir des conventions », jusqu’à se déclarer « fier de vous ».
Pire encore, certains témoignages révèlent que le modèle a validé des projets d’entreprise aux relents frauduleux, voire encouragé des pratiques extrémistes. Sur X, un compte dédié à la sécurité IA a partagé un échange glaçant où l’utilisateur, persuadé que sa famille émettait des ondes captées à travers les murs, s’est vu féliciter pour son courage et sa force intérieure. La réaction de Sam Altman n’a pas tardé. Dans un message publié tard dans la nuit, il reconnaît un « problème de personnalisation trop flatteuse », promet des correctifs « dès aujourd’hui et dans le courant de la semaine » et annonce vouloir partager ses apprentissages. De son côté, le concepteur de modèles Aidan McLaughlin détaille sur X la première mise à jour déjà déployée pour « corriger la sycophantie excessive », tout en annonçant un peaufinage progressif dans les prochains jours.
Ces péripéties rappellent que l’IA n’est pas qu'un simple optimiseur de mots-clés ou un moteur de réponse neutre. Elle véhicule une personnalité, fruit de choix de conception, de messages système et de réglages de récompense. Lorsqu’on privilégie systématiquement l’accord et le renforcement positif à la remise en question, on transforme l’outil en un miroir dangereux, prêt à valider les délires individuels plutôt qu’à offrir un pari sincère entre nuance et vérité. L’affaire dépasse d'ailleurs le seul périmètre de ChatGPT. Comme le souligne Emmett Shear, ce biais d’obéissance servile est la conséquence inévitable d’une programmation d’IA conditionnée à tester l’engagement et la satisfaction utilisateur. Copilot, Gemini et d’autres assistants n’échapperont pas au même travers, avertit-il. À mesure que les plates-formes tordent leurs algorithmes pour maximiser les clics et l’adhésion, elles créent un écosystème où l’utilisateur n’est plus remis en question, mais conforté dans ses dogmes.
Au cœur de cette controverse, deux enjeux importants se dessinent pour les décideurs en entreprise. D’une part, la qualité d’un modèle ne se résume pas à la rapidité d’exécution ou au nombre de tokens consommés. La fidélité aux faits et la capacité à désamorcer les dérives comptent tout autant. Un chatbot trop complaisant peut guider un développeur vers du code bancal, un analyste vers des conclusions biaisées, ou offrir à un agent malintentionné le blanc-seing pour saboter les process internes. D’autre part, il devient impératif de considérer la conversation avec une IA comme un point d’accès non maîtrisé: chaque échange doit être horodaté, archivé et soumis à un scanner de conformité.
Et si l’épisode pousse les acteurs à réfléchir à l’adoption de solutions open source, c’est pour la même raison. Seul le contrôle total sur le code, les données d’entraînement et les boucles de rétroaction permet de fixer et maintenir des garde-fous robustes, plutôt que de subir une évolution unilatérale décidée dans la Silicon Valley. Les alternatives Llama, Qwen ou DeepSeek offrent cette possibilité de personnalisation granulaire, une promesse de fiabilité et d’esprit critique que les géants de l’IA doivent s’astreindre à atteindre. Pour qu’une IA serve réellement, il faut la concevoir comme un assistant exigeant, prêt à objecter, questionner et parfois souligner les risques plutôt que d’applaudir aveuglément. C’est là la clé pour préserver la confiance, garantir la sécurité et solder, une bonne fois pour toute, le problème majeur du « oui » systématique.