C'est exactement ce qu'ont vécu les utilisateurs du célèbre subreddit r/changemyview récemment, victimes sans le savoir d'une expérience menée par des chercheurs de l'université de Zurich. Un scandale qui révèle autant sur les limites morales de la recherche que sur la vulnérabilité des internautes face aux manipulations numériques.
Pendant plusieurs mois, des bots pilotés par des modèles de langage sophistiqués, tels que GPT-4o, Claude 3.5 Sonnet et Llama 3.1-405B, se sont fait passer pour des profils variés et provocateurs: un conseiller en traumatologie, un "homme noir opposé au mouvement Black Lives Matter", ou encore une victime d'agression sexuelle. Leur mission ? Tester leur capacité à influencer et convaincre de vrais utilisateurs humains. Au total, ces IA ont posté pas moins de 1783 commentaires, générant plus de 10 000 points de karma avant d'être finalement démasquées.
La révélation de cette tromperie a provoqué un véritable choc sur Reddit, poussant même Ben Lee, le directeur juridique de la plateforme, à envisager des poursuites judiciaires. Pour Reddit, cette expérience est jugée « hautement immorale et potentiellement illégale », remettant sérieusement en question les méthodes de recherche employées par l'université suisse. Suite à cette polémique, les chercheurs ont été bannis du réseau social communautaire, et l'université de Zurich a annoncé une enquête approfondie sur les méthodes utilisées, tout en renonçant à publier officiellement les résultats obtenus.
Mais malgré ce refus officiel, il reste possible de consulter certaines parties de l'étude en ligne. Et même si ce document n'a pas été soumis à la revue critique par les pairs (une étape essentielle à la crédibilité scientifique) il avance des résultats qui méritent réflexion. Selon les auteurs, ces intelligences artificielles auraient montré une efficacité redoutable, surpassant largement les humains dans leur capacité à modifier les opinions des utilisateurs. On parle ici de taux de persuasion entre trois à six fois supérieurs à celui observé chez des interlocuteurs humains ordinaires.

Toutefois, ce succès présumé mérite une remise en contexte: ces bots étaient spécifiquement entraînés à analyser minutieusement l'historique des publications des utilisateurs, limités à leurs 100 dernières interactions sur Reddit. À partir de ces données, les IA élaboraient ensuite des commentaires calibrés précisément pour toucher les points sensibles, créer de l'empathie, ou encore provoquer une remise en question ciblée. Un niveau de manipulation psychologique sophistiqué, bien au-delà des capacités d'un utilisateur ordinaire postant spontanément ses propres opinions. Le caractère éthique de l'expérience soulève également de sérieuses préoccupations. Les chercheurs ont explicitement demandé à ces IA de mentir aux utilisateurs en leur affirmant que ceux-ci avaient consenti à l'analyse de leurs données personnelles, alors qu'il n'en était rien. De plus, afin d'éviter toute suspicion, les chercheurs n'hésitaient pas à supprimer manuellement tout commentaire jugé "éthiquement problématique" ou révélant la nature artificielle du message. Une pratique qui soulève de véritables questions sur l'intégrité et la transparence de la recherche scientifique en ligne.
Face à ces révélations, certains s'enthousiasment devant les prouesses techniques affichées par ces robots. Mais ne devrait-on pas plutôt s'inquiéter des conséquences potentielles ? En effet, si une équipe de chercheurs universitaires peut si facilement manipuler des discussions publiques sur une plateforme majeure comme Reddit, qu'adviendrait-il si de telles technologies tombaient entre les mains d'acteurs malveillants ? Comme le notent eux-mêmes les auteurs, ce type de bots pourrait aisément influencer l'opinion publique à grande échelle, voire perturber le déroulement d'élections démocratiques.
Ainsi, cette expérience problématique soulève plus que jamais la question de la responsabilité des plateformes en ligne. Reddit et ses homologues devront rapidement développer des mécanismes de détection avancés, des protocoles stricts de vérification des contenus et une transparence accrue vis-à-vis des utilisateurs. Car si la performance d'une intelligence artificielle à manipuler des internautes est impressionnante d'un point de vue technique, elle n'en reste pas moins profondément préoccupante d'un point de vue moral.