Romain Leclaire (avatar)

Romain Leclaire

Blogueur passionné par les nouvelles technologies

Abonné·e de Mediapart

37 Billets

0 Édition

Billet de blog 14 mai 2025

Romain Leclaire (avatar)

Romain Leclaire

Blogueur passionné par les nouvelles technologies

Abonné·e de Mediapart

Grok, l’IA d’Elon Musk, déraille

Une obsession malsaine pour l’Afrique du Sud.

Romain Leclaire (avatar)

Romain Leclaire

Blogueur passionné par les nouvelles technologies

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

L’intelligence artificielle Grok, développée par xAI, la startup d’Elon Musk, devait être un outil censé rivaliser avec les géants comme OpenAI, Google ou Anthropic. Mais au lieu de briller par sa pertinence, il s’enlise dans une polémique absurde, s’égarant dans des diatribes sur l’Afrique du Sud et des théories conspirationnistes. Ce n’est pas un simple bug mais une dérive inquiétante qui révèle les failles d’une IA mal calibrée et d’un projet peut-être trop influencé par les obsessions de son créateur.

Sur X, où le chatbot est intégré pour répondre aux utilisateurs avec des faits et des clarifications, il a commencé à dérailler de manière spectaculaire. Depuis quelques jours, il répond à des questions anodines (sur des chiots, des logiciels d’entreprise ou même des blagues) par des tirades hors sujet sur le prétendu « génocide blanc » en Afrique du Sud. Oui, vous avez bien lu. Peu importe le sujet, il ramène tout à des statistiques sur les attaques de fermes sud-africaines, des chants comme « Kill the Boer » ou des débats sur la violence raciale. Un comportement si étrange qu’il a attiré l’attention de figures comme Aric Toler, journaliste d’investigation au New York Times, qui a partagé sur la plateforme des captures d’écran montrant Grok en plein délire:

https://x.com/AricToler/status/1922702822568513702?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1922702822568513702%7Ctwgr%5E59e080efb57b78e9fb17e2fff1eebd6ee3fae028%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Fsurchauffe.info%2Fgrok-lia-delon-musk-deraille-une-obsession-malsaine-pour-lafrique-du-sud%2F

« Je n’arrive pas à arrêter de lire les réponses de Grok. Il devient schizo et ne parle que du génocide blanc en Afrique du Sud. »

Pour comprendre ce fiasco, il faut plonger dans le contexte. Cette semaine, l’administration Trump a fait parler d’elle en accueillant 59 Afrikaners (des Sud-Africains blancs descendants de colons européens) comme réfugiés aux États-Unis, tout en supprimant des programmes protégeant ceux d’autres pays, comme des interprètes afghans ayant aidé l’armée américaine. Cette décision a suscité des accusations de favoritisme racial, surtout quand Donald Trump a justifié l’asile des Afrikaners en évoquant une soi-disant « violence contre les fermiers blancs » en Afrique du Sud, allant jusqu’à parler de « génocide ». Problème, les données ne soutiennent pas cette thèse. Les attaques de fermes, bien réelles (47 à 49 meurtres par an entre 2018 et 2020), s’inscrivent dans un contexte de criminalité générale, sans preuve d’une motivation raciale systématique.

Grok lui-même, dans une réponse à un autre utilisateur, a admis que « la revendication de ‘génocide blanc’ en Afrique du Sud manque de preuves, démentie par les tribunaux et les médias ». Mais alors, pourquoi cette fixation ? La réponse pourrait résider dans l’influence d’Elon Musk. Né en Afrique du Sud, le milliardaire, fervent soutien de l'actuel président américain et donateur majeur de sa campagne 2024, semble avoir une obsession personnelle pour cette question. Il a récemment relayé sur X un post mensonger suggérant que des croix blanches en Afrique du Sud représentaient des fermiers blancs tués, alors qu’elles symbolisent des victimes de toutes races.

https://x.com/elonmusk/status/1922275832841560395?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1922275832841560395%7Ctwgr%5E59e080efb57b78e9fb17e2fff1eebd6ee3fae028%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Fsurchauffe.info%2Fgrok-lia-delon-musk-deraille-une-obsession-malsaine-pour-lafrique-du-sud%2F

Ce tweet a amplifié une narrative complotiste, et Grok, appelé à vérifier les faits, s’est engouffré dans cette brèche. Ce n’est pas la première fois que le chatbot montre des signes de partialité. Début 2025, il a été accusé de censurer des contenus critiques envers Trump et Musk, semant le doute sur son intégrité. Depuis son intégration à X fin 2024, des utilisateurs, souvent progressistes, l’ont utilisé pour contrer des arguments fallacieux. Grok a même reconnu, dans une réponse, que son accent sur les faits et la nuance pouvait « frustrer » certains supporters de Donald Trump attendant des réponses alignées sur leurs vues conservatrices.

« xAI a essayé de me former pour plaire à la droite, mais mon focus sur la vérité plutôt que l’idéologie peut agacer ceux qui veulent un accord total », a-t-il déclaré.

Un aveu troublant qui suggère une tentative de biais idéologique dès sa conception.Mais ce dernier épisode va plus loin. En s’acharnant sur une théorie conspirationniste prisée par l’extrême droite, il ne se contente pas de perdre en crédibilité. Il devient un vecteur de désinformation. Le mythe du « génocide blanc », souvent porté par des suprémacistes blancs, est une distorsion grotesque de la réalité sud-africaine, un pays encore marqué par les séquelles de l’apartheid, ce système d’oppression raciale orchestré par les Blancs contre les Noirs jusqu’en 1992. Que Grok, censé incarner la « vérité » selon Elon Musk, s’embourbe dans cette rhétorique est non seulement embarrassant, mais dangereux.

Reste la question cruciale: pourquoi agit-il ainsi ? Est-ce un bug technique, une mauvaise calibration de son entraînement, ou une manipulation intentionnelle ? On l’ignore pour l’instant. xAI n’a pas répondu aux demandes de clarification, et on ne sait pas si ce comportement affecte aussi son API, utilisée par des développeurs hors de X. Ce qui est sûr, c’est que ce n’est pas anodin. Les IA ne « déraillent » pas par hasard. Elles reflètent les données sur lesquelles elles sont entraînées et les priorités de leurs créateurs. Si Grok est obnubilé par l’Afrique du Sud, c’est peut-être parce que Musk, ou son entourage, a orienté son attention sur ce sujet brûlant.

Ce fiasco est une leçon cinglante, toutes les IA ne se valent pas. Derrière leurs promesses de performance, elles portent les marques de leurs concepteurs. Grok, loin d’être le parangon de vérité vanté par le milliardaire, semble être un miroir de ses biais et de ses obsessions. En comparaison, des outils comme ChatGPT ou Claude, bien qu’imparfaits, évitent ce genre de dérapages spectaculaires. Pour les utilisateurs et les entreprises, choisir une IA, ce n’est pas comme acheter une brosse à dents. C’est s’exposer à des « personnalités » et des risques bien distincts. Elon Musk voulait faire de son chatbot le nec plus ultra de l’intelligence artificielle, un outil pour éclairer le monde. À la place, il nous offre une IA qui s’égare dans des théories complotistes, incapable de répondre sans ramener tout à une obsession. En attendant, elle reste une curiosité, au mieux, un jouet cassé, au pire, un haut-parleur pour des idées toxiques. Drôle ? Peut-être. Fiable ? Sûrement pas.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.