Agrandissement : Illustration 1
Elon Musk a toujours eu le don de vendre des rêves grandioses, souvent à la limite de la science-fiction. Avec Grokipedia, la version de l’encyclopédie générée par l’intelligence artificielle de xAI et fièrement brandie comme une alternative « anti-woke » à Wikipedia, l’ambition était titanesque. Le milliardaire d’extrême droite imaginait un monument définitif à la connaissance humaine, une œuvre si complète et si véridique qu’elle mériterait d’être gravée dans la pierre et préservée dans l’espace pour l’éternité. La réalité, cependant, est beaucoup plus terre-à-terre et franchement inquiétante. Loin d’être un phare de vérité, Grokipedia est un désastre complet, un chaos informationnel qui ne fait qu’empirer depuis que la plateforme a décidé d’ouvrir les vannes aux suggestions de modification par le grand public.
Il faut rappeler que Grokipedia n’a pas toujours été ouverte aux quatre vents. Lors de son lancement en octobre, ses quelque 800 000 articles, entièrement rédigés par l’IA Grok, étaient verrouillés. À l’époque, le résultat était déjà médiocre. On y trouvait un mélange indigeste de contenus racistes, transphobes et de passages étrangement flatteurs pour Elon Musk, le tout entrecoupé de sections littéralement clonées depuis Wikipedia. C’était mauvais, certes, mais c’était au moins un désastre statique et prévisible. Tout cela a changé il y a quelques semaines avec le déploiement de la version 0.2, lorsque Musk a décidé de laisser n’importe qui proposer des modifications. Ce qui était une mauvaise farce est devenu un terrain de jeu ingérable.
Le processus pour proposer des modifications sur Grokipedia est d’une simplicité déconcertante, tellement simple que le site ne prend même pas la peine de fournir des instructions. Il suffit de surligner un passage, de cliquer sur un bouton « suggérer une modification » et de remplir un formulaire sommaire. Il y a une option pour fournir des sources, mais le véritable problème réside dans l’arbitre de ces changements. Ce n’est pas un comité d’experts ou une communauté de passionnés qui valide les propositions, mais Grok lui-même. C’est donc ce chatbot problématique, connu pour son adoration servile de son créateur, qui décide de la vérité et qui effectue les changements. Contrairement à Wikipedia, où une armée d’éditeurs humains surveille en permanence la page des modifications récentes pour contrer le vandalisme, ici, c’est l’IA qui tient les clés de la maison.
L’opacité du système est totale. Grokipedia affirme fièrement qu’il y a eu plus de 22 319 modifications approuvées jusqu’à présent, mais ce chiffre ne veut rien dire car il est impossible de vérifier la nature de ces changements. Sur quelle page ont-ils eu lieu ? Qui les a suggérés ? Le site n’offre aucun moyen de le savoir. Cette absence de transparence contraste violemment avec les journaux de modification méticuleux de Wikipedia, qui permettent de trier l’historique par page, par utilisateur ou même par adresse IP. Sur la plateforme de Musk, on navigue à l’aveugle. On peut soupçonner que la majorité des modifications consistent simplement à ajouter des liens internes vers d’autres pages générées par Grok, mais sans outils d’analyse, on en est réduit aux conjonctures.
Le seul aperçu, aussi maigre soit-il, de l’activité du site se trouve sur la page d’accueil. Un petit panneau sous la barre de recherche affiche une rotation de cinq mises à jour récentes. C’est dérisoire et totalement inutile pour comprendre l’évolution du contenu. On y apprend seulement qu’un article a été modifié, sans savoir en quoi. Le contenu mis en avant semble être à la merci des caprices des utilisateurs, créant un mélange confus où les pages sur Elon Musk et des sujets religieux côtoient des articles sur des émissions de télé-réalité ou des requêtes absurdes sur les bienfaits médicaux de l’urine de chameau. C’est l’illustration parfaite d’un système sans direction éditoriale.
Si l’on compare cela à la rigueur de Wikipedia, l’écart est abyssal. L’encyclopédie libre offre une chronologie claire de chaque modification, expliquant qui a fait quoi et pourquoi, avec des journaux de discussion accessibles pour les sujets contentieux. Il existe des directives copieuses sur le style, les sources et les processus. Sur Grokipedia, il n’y a aucune directive de ce genre et cela se voit. Les demandes sont un fouillis incohérent. Certes, il existe un journal des modifications, mais il tient plus du cauchemar ergonomique que de l’outil de transparence. Ce dernier, qui ne montre qu’un horodatage et la décision souvent alambiquée de l’IA, doit être défilé manuellement dans une minuscule fenêtre pop-up, sans possibilité de trier ou de sauter des étapes. Avec seulement quelques modifications, c’est frustrant. Avec des milliers, ce sera tout bonnement inutilisable.
Sans surprise, Grok se révèle être un éditeur d’une inconstance flagrante. Les journaux de modification trahissent l’absence totale de ligne directrice claire. L’exemple de la page biographique d’Elon Musk est particulièrement révélateur. De nombreux utilisateurs ont tenté de corriger les sections concernant sa fille, Vivian, qui est transgenre. Les suggestions visaient à utiliser son nom et ses pronoms actuels, conformément à son identité de genre. Mais la méthode de modification incrémentale du chatbot a transformé la page en un mélange confus et irrespectueux, alternant entre les bonnes informations et le « deadnaming« , prouvant que l’IA ne comprend pas le contexte global d’un article biographique.
Plus inquiétant encore, Grok est un chatbot et comme tous les grands modèles de langage, il est influençable. Il suffit de savoir comment lui parler pour tordre la réalité. Sur cette même page biographique, un utilisateur a suggéré de vérifier la véracité d’une citation liant la chute de Rome à la baisse de la natalité. Dans une réponse verbeuse, Grok a rejeté la suggestion, la jugeant inutile. Pourtant, face à une requête similaire mais formulée différemment, l’IA est arrivée à la conclusion opposée, acceptant d’ajouter l’information qu’elle venait de juger superflue. Il est aisé d’imaginer comment des acteurs malveillants pourraient jouer avec le système pour faire valider des fausses informations en testant simplement différentes formulations jusqu’à ce que la machine cède.
Sur Wikipedia, de telles dérives sont endiguées par des administrateurs bénévoles, élus ou sélectionnés, qui ont le pouvoir de bloquer des comptes et de protéger des pages contre le vandalisme. Grokipedia semble dépourvue de tels garde-fous, laissant son contenu à la merci d’internautes aléatoires et d’un chatbot qui s’est déjà, par le passé, comparé à MechaHitler. Les conséquences sont déjà visibles sur des sujets sensibles comme la seconde guerre mondiale. On trouve des traces de requêtes répétées visant à minimiser l’Holocauste ou à insérer des anecdotes triviales sur les talents de peintre d’Hitler. Là où Wikipedia protège ces pages et documente chaque décision, Grokipedia laisse la porte entrouverte au révisionnisme, avec pour seule barrière une IA à la logique vacillante.
Ces pages historiques sont des cibles évidentes pour les abus et il n’est pas surprenant qu’elles soient les premières visées. Avec le système d’édition chaotique de Grokipedia et les garde-fous limités de l’IA, il deviendra bientôt impossible de distinguer le vandalisme de l’information légitime. À ce rythme, le projet de Musk ne ressemble pas à une archive destinée aux étoiles, mais plutôt à une structure vouée à s’effondrer dans un marécage de désinformation à peine lisible.