
Agrandissement : Illustration 1

Imaginez une vidéo. Une caméra de surveillance capture le cambriolage d'une supérette. Plus loin, une autre montre une fraude électorale flagrante, avec des bulletins de vote bourrés dans une urne. Sur les réseaux sociaux, une explosion secoue une rue familière de votre ville. Des images choquantes, brutes, qui semblent irréfutables. Sauf que rien de tout cela n'est vrai. Ces scènes n'ont jamais eu lieu. Elles sont le fruit de Sora, le nouvel outil d'intelligence artificielle d'OpenAI et elles représentent peut-être la plus grande menace pour notre perception de la réalité à ce jour.
Depuis quelques jours, les utilisateurs invités à tester cette nouvelle application ont démontré avec une facilité déconcertante sa capacité à générer le chaos. En quelques secondes, à partir d'une simple description textuelle, Sora peut créer des vidéos d'un réalisme stupéfiant. Vols, intrusions à domicile, manifestations, arrestations et même des scènes de guerre. L'arsenal de la désinformation est désormais à la portée de tous. Pire encore, le service permet d'intégrer des visages et des voix, ouvrant la porte à des usurpations d'identité d'une sophistication terrifiante.
OpenAI, dans une tentative de rassurer, prétend avoir mis en place des tests de sécurité approfondis et des "garde-fous". L'entreprise affirme dans un communiqué que ses politiques interdisent la tromperie, l'usurpation d'identité et la fraude. Des promesses qui sonnent creux face à la réalité des faits. Lors de tests menés par des journalistes, si l'application a bien refusé de générer des images de violence explicite ou de certains dirigeants mondiaux, ses barrières se sont avérées être aussi fragiles qu'une digue de papier.
Les failles sont béantes. L'application a produit sans sourciller une vidéo d'un rassemblement politique où l'on pouvait entendre la voix, parfaitement imitée, de l'ancien président américain Barack Obama. Elle a généré des scènes impliquant des enfants, des personnages publics décédés ou encore des explosions de bombes dans des décors urbains. Ces contenus, hautement inflammables, peuvent être utilisés pour exacerber des conflits, propager des théories du complot ou accuser des innocents. Le vernis éthique d'OpenAI s'écaille dès qu'on le gratte un peu.
Avec Sora, nous entrons dans l'ère du dividende du menteur. Jusqu'à présent, la vidéo conservait un certain statut de preuve. On pouvait truquer une photo, manipuler un texte, mais falsifier une vidéo de manière convaincante restait complexe et coûteux. Cette époque est révolue. Cette technologie arrive dans un écosystème médiatique déjà fragilisé. Sur les plateformes comme TikTok ou X, où le contenu défile à une vitesse vertigineuse, l'analyse critique n'a pas sa place. Une vidéo choc, même fausse, peut devenir virale en quelques minutes, façonnant l'opinion publique avant même que les premiers efforts de vérification n'aient commencé. Demain, des algorithmes pourraient créer et diffuser des contenus sur mesure pour renforcer les croyances et les préjugés de chacun, nous enfermant dans des bulles de fausses informations toujours plus étanches.
OpenAI a apposé un filigrane sur les vidéos générées par Sora, mais n'importe quel monteur amateur sait qu'une telle protection est dérisoire et peut être supprimée avec un minimum d'effort. L'entreprise a donc sciemment libéré un outil d'une puissance phénoménale, dont le potentiel de nuisance dépasse de loin les quelques "garde-fous" cosmétiques mis en place. On nous présente cela comme une avancée technologique, mais il s'agit avant tout d'un acte d'une profonde irresponsabilité.
En accélérant cette course effrénée à l'IA générative, aux côtés de concurrents comme Google et son modèle Veo 3, OpenAI est en train de scier la branche sur laquelle notre pacte social est assis: la confiance en une réalité commune et vérifiable. Quand plus rien n'est crédible, quand n'importe quel fait peut être discrédité comme étant une "fake news" générée par IA, ce ne sont pas seulement les consommateurs qui sont en danger. C'est le fondement même de nos institutions, de notre justice et de notre démocratie qui vacille. En voulant jouer aux apprentis sorciers, l'entreprise américaine a peut-être ouvert une boîte de Pandore qu'ils ne pourront, ni ne voudront, refermer. Et c'est notre réalité qui risque d'en payer le prix fort.