Si vous avez vécu, comme moi, plus de trente ans et que vous avez été témoins du déploiement mondial d’Internet, de la disparition soudaine du téléphone filaire familial, ou de la création du terme d’« ami Facebook », vous vous êtes peut-être déjà demandé si et comment la démocratisation de l’usage de l’IA, dont l’adoption par la population générale est encore peu perceptible, va s’intégrer dans notre quotidien.
Je partage avec vous ici quelques pistes de réflexion.
De quoi parlons-nous ? Une brève mise au point (pour les deux du fond)
On désigne communément par IA les LLM (Large Language Models) comme ChatGPT, Gemini ou Copilot par exemple. Ces programmes spécialisés dans le traitement du langage sont aujourd’hui capables de simuler certaines fonctions cognitives humaines : comprendre le langage, générer du texte, des images, du code informatique, répondre à des questions complexes nécessitant de la réflexion. Les versions de base de ces outils sont aujourd’hui déjà plus performantes qu’un individu dans bien des domaines : traduction dans un grand nombre de langues, lecture, compréhension, analyse et synthèse de textes complexes, ils ont, en théorie, accès à l’intégralité de la connaissance humaine et sont capables d’en déduire de nouvelles connaissances, de nouveaux concepts.
Comme une calculette vous donnant le résultat d’une opération que vous ne pourriez pas faire de tête, ChatGPT vous donne le résultat d’un "calcul" linguistique. À la différence près que l’opération (votre prompt) et son résultat (la réponse de ChatGPT) sont construits non pas avec des chiffres, mais avec des mots et des phrases. Ainsi, l’IA calcule la probabilité qu’un mot (ou une suite de mots) soit la plus pertinente pour suivre une séquence donnée, en fonction de votre prompt. Elle s’appuie sur d'immenses statistiques apprises pendant son entraînement, ne cherche pas une seule "bonne" réponse, mais génère une distribution de probabilité sur tous les mots de son vocabulaire, puis échantillonne dans cette distribution pour formuler une réponse cohérente.
Il n’y a donc pas de réponse exacte de façon tangible, l’exactitude du langage ne pouvant pas être mesurée comme celle d’une opération mathématique. Il n’y a que des réponses probablement adaptées à votre question, la probabilité augmentant avec l’entraînement des modèles. Ainsi, ChatGPT peut parfois formuler une affirmation erronée avec un aplomb déconcertant, sans qu'on le remarque.
ChatGPT ou tout autre modèle est un outil bien pratique. 39% des Français les utilisent déjà, principalement comme outil de recherche ou de rédaction, que ce soit à titre personnel ou professionnel (Ipsos). Pourtant, nous n’avons pas (encore) remplacé Google par ChatGPT : le nombre de requêtes sur Google augmentait encore en 2024. Mais les usages évoluent rapidement : aux États-Unis, le recours à ChatGPT comme moteur de recherche principal serait passé de 1 % en 2023 à 8 % en 2024, avec une baisse proportionnelle de Google (Barron's, TheTimes.com).
Pratique, donc, mais pas encore au point, a priori, de révolutionner complètement notre quotidien et de payer les 21,99€ mensuels de la version Pro. Si Open AI, la maison mère de ChatGPT, ne communique pas sur le nombre d’utilisateurs payants, le nombre annoncé en 2025 d’utilisateurs hebdomadaires actifs total (donc version gratuite incluse) est de « seulement » 400 millions (Reuters). En comparaison, Google traiterait, selon les estimations, près de 8,5 milliards de recherches par jour (Semrush).
Alors, pourquoi Google (et les autres) déploie largement les versions gratuites de son LLM ? Car une sorte de « vente forcée » est semble-t-il en marche : Copilot sur Windows, Gemini sur Android, Meta AI sur WhatsApp et Facebook Messenger, réponses générées dans Google, suggestions dans Gmail et Microsoft Word, résumés de réunions Zoom pour ne citer que ces exemples, s’invitent sur nos appareils alors que nous ne les avons pas nécessairement sollicités – et que nous n’en avons parfois même pas l’usage : Mark Zuckerberg croit-il sincèrement que nous allons finir par demander à Meta AI d’envoyer des messages WhatsApp à notre place ?
Pourquoi les GAFAM forcent l’adoption de l’IA par la population générale ?
Pour entraîner leur modèle par le plus grand nombre : plus il y a d’utilisateurs de ces outils, plus ceux-ci se perfectionnent. Chaque utilisateur supplémentaire entraîne gratuitement le modèle, offre des données, et peut potentiellement générer un usage monétisable. L’IA est un produit, et nous en sommes les co-fabricants involontaires et bénévoles. Et on peut imaginer que les opportunités sont colossales : optimisation logistique, automatisation du support client, résumés juridiques, traduction interne, prototypage… 75 % des entreprises déclarent déjà utiliser l’IA dans au moins une fonction métier (marketing, R&D, service client…) (McKinsey)
Je suis prêt à parier que vous-même ou votre employeur, quel que soit votre métier, s’est au minimum déjà demandé comment utiliser l’IA pour optimiser l’activité professionnelle. Il n’y a pas un secteur pour lequel l’IA ne puisse potentiellement servir, à plus ou moins grande échelle.
Comment l'IA nous touche, même à notre insu
Par la diffusion massive et croissante des outils, par la multiplication des cas d’usage industriels et économiques, l’IA a déjà commencé à s’immiscer dans notre rapport au monde, aux choses, aux gens. Et cela ne fait que commencer, quelques soient, au passage, les quantités de ressources englouties par les data center pour faire fonctionner les LLM : un prompt (une requête) sur ChatGPT consommerait l’équivalent d’une bouteille d’eau (TheTimes.com/uk). La course à l’échalote a déjà commencé : L'UE a annoncé un plan historique de 200 milliards d’euros d’investissement pour l’IA, Donald Trump 500 milliards de dollars pour les USA, 138 milliards de dollars par la Bank of China, sans compter les investissements du Japon, de l’Inde et de chaque autre état, et, surtout, les investissements des innombrables entreprises privées à travers le monde. Les sommes engagées sont astronomiques.
Est-ce inquiétant ? Est-ce une bonne nouvelle ? Peu importe, le train est déjà en route.
Le prix du carburant à la pompe, l'agencement stratégique des produits aux supermarché, l’information qui s’offre à vous sur les fils d’actu, les réseaux sociaux et les moteurs de recherche, la publicité, votre playlist musicale, le chatbot du service client que vous sollicitez, l’itinéraire que vous choisissez pour vous déplacer, le sens de circulation de votre rue, l’heure à laquelle vous allez recevoir votre colis, la qualité de vos diagnostics médicaux, la puissance de calcul de votre futur téléphone portable, la trame du prochain prix Goncourt, la composition de votre club de foot, votre score fiscal déclenchant un contrôle, le guidage du drone militaire qui traverse la frontière ennemie…
Il n’y a rien qui ne puisse potentiellement échapper à une optimisation par l’IA, personne qui puisse, aujourd’hui et davantage encore demain, éviter d’être influencé par l’IA. Parce qu’elle peut prendre en compte un nombre abyssal de paramètres, l’IA « pense » à des solutions que nous n’aurions pas nécessairement envisagées, au niveau individuel et privé, comme au niveau des organisations, et oriente nos choix, nos décisions, comme aucune autre avancée technologique auparavant. Et c’est bien trop pratique pour s’en passer.
Ainsi, que vous l’acceptiez ou non, l’IA commence déjà à façonner progressivement le réel, en ce sens qu’elle intervient, à notre demande, dans un grand nombre de domaines, à plus ou moins grande échelle.
Prenons un exemple amusant, et extrapolons.
En octobre 2024, une vidéo publiée sur TikTok fait rapidement le tour des réseaux sociaux. C’est apparemment une archive, et elle est saisissante : elle confirme, enfin, que les bâtisseurs des pyramides d’Egypte ont bien été épaulés… par des géants (Arte : Le dessous des images). Vous n'étiez pas au courant ?
La vidéo est bien conçue et imite parfaitement le grain des images d’archive. Initialement postée sur le compte Welmysterien, un artiste ayant réalisé plusieurs vidéos générées par l’IA, elle a suscité bon nombre de commentaires. Ce qui est troublant, c’est que certains de ces commentaires font preuve d’une crédulité surprenante, confortant des théories pour le moins discutables. Ce n’est heureusement pas la majorité des commentaires, mais ils existent néanmoins.
Si le doute est possible aujourd’hui pour une falsification aussi évidente, que tiendrons-nous pour authentique, dans une ou deux générations ? On peut encore détecter à l’œil nu, si on est très attentif, une image ou une vidéo générée par l’IA. Mais demain, quand la technique sera aboutie et son usage facile et courant, quelle valeur auront les images d’archives, et quel poids aura la validation historique des faits qu’elles illustrent, confondues et noyées dans les faux ? C’est le début de l’ère du doute, de la post-vérité, où toute affirmation est sujette à caution.
Quelque chose de plus profond que d’habitude est enclenché
Je me trouvais malin de penser que Facebook avait à l’époque complètement dénaturé le concept d’amitié. Je n’étais pas prêt pour ce qui arrive.
Car c’est sans doute ce que je retiens en priorité du message que Sam Altman, CEO d’Open AI, a publié sur son blog le 10 juin 2025 : la transformation commencée est profonde, et nous ne savons pas vraiment ce que cela va donner.
« Les années 2030 seront probablement très différentes de toutes les époques précédentes. Nous ne savons pas jusqu'où nous pouvons aller au-delà de l'intelligence humaine, mais nous sommes sur le point de le découvrir. »
Sam Altman, CEO d'Open AI
Nous avons déjà entamé cette phase inédite, silencieuse de notre développement technologique. Elle ne ressemblera pas à une rupture monumentale, mais à une montée en puissance douce et rapide, guidée par des défis éthiques majeurs. Ce qui est nouveau, sans doute, c’est l’imprégnation de cette marche technologique dans le tissu social même, et l’amplitude de son impact : notre rapport au réel, à la vérité (déjà déteriorié depuis la floraison des fake news), au travail, vont probablement être refaçonnés dans une magnitude inconnue, mais profonde. Il est possible qu’émerge, dans un glissement culturel globalisé, une nouvelle catégorie d’individus et de nations : ceux qui manipulent l’IA, et les autres.
Faut-il s'en réjouir ? Comment s'y préparer ?
Information au lecteur : j'ai utilisé ChatGPT v4o pour m'aider à rédiger cet article, tant sur la forme que dans le fond. Assité par l'IA, je garantis cependant que j’en suis essentiellement l’auteur, que j'ai rigoureusement relu et corrigé la version définitive avant de la poster, et que j'assume pleinement et personnellement tous les arguments qui y sont développés.
Aurais-je été capable d'arriver au bout de ma pensée par moi-même pour rédiger cet article ?
Epsilon Eridani