Cet article est extrait d'un long format sur l'IA publié sur ma Newsletter "Fake Tech".
L’IA à quel prix ?
Selon la banque mondiale, entre 150 et 400 millions de travailleurs sont payés à la tâche pour traiter les données qui servent à entrainer les algorithmes de « deep learning » (apprentissage profond). Leur travail consiste à annoter des données (images, vidéos, textes) et à juger les réponses de certains programmes d’IA. Ces travailleurs ultra-précarisés et majoritairement issus du sud global sont, pour certains, confrontés à des missions atroces : lire des textes ou visionner des vidéos montrant des scènes de pédophilie, torture, meurtre et violence. Cela peut aller jusqu’au viol d’enfants par des animaux. Ces travailleurs du clic en ressortent durablement traumatisés, comme des soldats revenant du front. Certains se suicident ou commettent des meurtres contre leurs propres familles. OpenAI et les géants de la Tech font partie des plus gros clients des plateformes comme le « Turc mécanique » d’Amazon, qui met en relation les travailleurs du clic et les développeurs d’IA dans la plus grande opacité. Ceux qui parlent peuvent s’exposer à des poursuites judiciaires. Cet esclavagisme ou colonialisme moderne n’est qu’une des conséquences néfastes de la mise au point des grands modèles d’IA.
Nos données sont utilisées pour entrainer les algorithmes sans nous demander notre avis. C’est un problème pour la propriété intellectuelle, surtout lorsque des artistes se font « voler » leur travail pour mettre au point des programmes informatiques destinés à les remplacer ou à leur faire concurrence. Mais c’est aussi un problème pour vous et moi.
En effet, les grands modèles d’IA générative stockent leurs données d’entrainement de manière passive, sans qu’on puisse les effacer. D’une certaine manière, les réseaux de neurones artificiels sur lesquels ils reposent (des programmes informatiques utilisant des milliards de paramètres ajustables pour produire une réponse se conformant aux exemples contenus dans la base de données ayant servi à leur entrainement) conservent une mémoire de vos informations. Ces dernières peuvent ensuite être récupérées par des acteurs malveillants. Autrement dit, ce type d’intelligence artificielle pose un énorme risque en matière de protection de la vie privée.
L’exploitation ne se limite pas aux hommes et à leurs données. Ces intelligences, pas si artificielles, requièrent de plus en plus de ressources naturelles pour fonctionner. Électricité pour faire tourner les data centers et superordinateurs, eau pour les refroidir, minerais pour les construire, terrain pour les installer. Sans parler de la pollution atmosphérique induite par certains centres, comme ceux mis en service par xAi, l’entreprise d’Elon Musk qui rend les riverains livides.
Les projets évoqués plus haut se chiffrent en gigawatts de puissance, l’équivalent de la production d’un réacteur nucléaire, mais souvent assurée par des centrales à charbon ou à gaz, parfois redémarrées pour l’occasion. Plus les modèles sont gourmands en énergie, plus les processeurs servant à les faire tourner « grillent » rapidement. Le Wall Street Journal évoquait ainsi le risque financier pesant sur les gros opérateurs de data centers, qui pourraient devoir dépenser la moitié de leur budget opérationnel en cout de remplacement.
Enfin, la question de la sécurité et de ses conséquences sociétales ne se limite pas à nos simples données, déjà largement exploitées à des fins publicitaires par d’innombrables firmes. L’IA générative produit beaucoup de contenu souvent approximatif ou faux. YouTube est inondé de bandes-annonces réalisées à partir de l’IA. Nous sommes de plus en plus exposés, via internet, à des contenus artificiels poussés par les algorithmes des plateformes, sans nous demander notre avis. Le web risque de rapidement regorger de sites construits par l’IA à partir de données elles-mêmes générées par des algorithmes et truffées d’erreurs. Avec le risque qu’il soit de plus en plus difficile et laborieux d’accéder à de l’information de qualité, sans même parler des opérations de manipulation en vue d’influencer consommateurs et électeurs.
Le programme d’OpenAI « Deep research » propose ainsi de produire des résumés et bibliographies scientifiques ou des articles citant leurs sources sur des sujets donnés. Il risque de générer des corpus d’informations approximatives, voire erronées. Non seulement des acteurs mal intentionnés vont pouvoir produire des articles de recherche scientifique « plausibles » pour vendre des solutions douteuses (suppléments alimentaires, par exemple), mais les erreurs introduites par l’IA risquent ensuite de polluer le travail des vrais scientifiques. Au point d’inquiéter certains d’entre eux, qui voient dans la généralisation de ces outils le risque que la capacité à mener des recherches scientifiques s’effondre face à la montagne d’informations crédibles, mais erronées, qui va polluer le web.
On pourrait également mentionner le problème des biais idéologiques des grands modèles de langages types ChatGPT. Parce qu’ils sont entrainés avec la somme des textes figurant sur internet, ils tendent à reproduire les biais présents dans le discours médiatique et politique dominant. C’est déjà un problème lorsque ces modèles reflètent fidèlement les biais inhérents à leurs données d’entrainement, mais c’est encore plus dangereux lorsque leurs concepteurs introduisent des biais supplémentaires à des fins idéologiques. On a beaucoup parlé de la censure et de la propagande contenues dans l’IA chinoise DeepSeek, mais Elon Musk s’est également vanté de produire avec son agent conversationnel Grok 3 un outil d’influence subtile pour distiller ses vues réactionnaires, voire néonazies, au sein de la société. Comme l’ont montré certains travaux de recherches, l’utilisation d’agents conversationnels influence l’opinion des utilisateurs, même lorsque ces programmes ne sont pas conçus dans ce but.
Enfin, les IA génératives présentent de nombreux risques en termes de sécurité. Le plus évident concerne la cybersécurité, les IA étant à la fois de parfaits outils pour mener des piratages en tout genre et des programmes truffés de failles faciles à exploiter. Outre les risques purement numériques, ces IA posent des problèmes dans le monde physique. Il est relativement aisé de les « jailbreaker », c’est-à-dire faire sauter les protections introduites par le concepteur pour éviter certains usages nocifs du programme. Une fois piraté de la sorte, des agents conversationnels peuvent devenir de vrais conseillers pour expliquer comment construire une bombe, planifier un attentat ou même recruter un tueur à gages sur le dark web. De nombreuses démonstrations ont été faites en ce sens.
On voudrait nous faire croire que tenter d’éviter ces risques et conséquences néfastes s’opposerait au progrès. Payer convenablement les travailleurs du clic en prenant soin de leur santé mentale serait trop cher pour les géants de la Silicon Valley. Exiger des normes de sécurité, interdire la violation des droits d’auteurs ou réguler la commercialisation des IA risquerait de nous faire perdre cette course existentielle. Pour ne pas prendre du retard, les firmes s’attaquent aux régulations et déploient leurs produits mal conçus dans la précipitation, sans égard pour les consommateurs ou la société dans son ensemble. Rien ne doit arrêter la machine infernale, sous peine de ralentir les levés de fonds, tarir le flux d’investissements et faire éclater la bulle financière qu’est devenue la course à l’IA générale.
L’IA générative pour faire quoi ?
Emmanuel Macron nous a assuré que l’IA générative n’allait pas détruire l’emploi, mais nous rendre plus productifs, ressassant l’argument typiquement déployé par les promoteurs de cette fuite en avant. L’intelligence artificielle comme solution miracle pour relancer la croissance et la prospérité ? N’en déplaise au président de la République, ce n’est pas exactement comme cela que les principaux acteurs du secteur voient les choses. Elon Musk, Sam Altman, Marc Andresseen et tant d’autres ne s’en cachent pas : le but est de supprimer des emplois massivement pour comprimer les salaires de tous les « survivants ».
Inutile de rejoindre ceux qui s’inquiètent de l’avènement d’une IA toute puissante capable de penser par elle-même et de détruire l’humanité. L’apocalypse sociétale promise par Musk et consort peut se réaliser avec de simples « Intelligences artificielles générales » (IAG), c’est-à-dire des IA capables de faire mieux que les humains dans de multiples domaines et avec constance. Pour que cette éventualité, élevée au rang de Graal par des firmes comme OpenAI, devienne réalité, il conviendrait de déployer les IA génératives imparfaites partout et au plus vite.
Les conséquences ne sont guère roses. Outre les problèmes déjà évoqués, différentes études ont confirmé que l’usage des agents conversationnels de type ChatGPT réduisait l’esprit critique des utilisateurs et diminuait leurs capacités cognitives, selon une étude de Microsoft. Vous avez bien lu : l’IA ne nous rend pas plus productifs, mais plus incompétents et stupides.
Dans la matinale de France Inter, le PDG de Mistral a cité la médecine et le tri des patients aux urgences pour illustrer les bienfaits de l’IA. Problème : les témoignages de médecins constatant les méfaits de cet usage se multiplient. Les urgentistes qui font appel à l’IA pour interpréter les radios deviennent moins performants et moins susceptibles de détecter les cas où cette technologie commet une erreur. Ce qui peut conduire à la non-prise en charge de patients en état critique. Cette perte de compétence ou « deskilling » risque d’empirer avec la prochaine génération de médecins exposés à l’IA dès leur formation, explique un spécialiste.
Les exemples de dégâts collatéraux sont innombrables : malades à qui on refuse les remboursements de frais médicaux, civils palestiniens tués par erreur suite à leur ciblage par le système d’IA « Lavender », robotaxis qui bloquent la circulation ou écrasent des piétons, Tesla « autonomes » qui provoquent des centaines d’accidents graves, vidéosurveillance avec reconnaissance faciale testée en France avec des résultats catastrophiques en termes d’efficacité et de fiabilité, employés virés par des IA par erreur, candidatures à des offres d’emplois systématiquement rejetées, personnes rayées de la CAF et privées d’aides sociales indument, des générateurs de vidéos utilisés pour produire massivement des films pornos, y compris avec les visages de vraies personnes non consentantes, les tribunaux empêchés de rendre justice par des avocats qui citent de fausses jurisprudences hallucinées par l’IA…
Même dans le domaine d’excellence des LLM, il semblerait y avoir un hic. La BBC vient de pondre un rapport estimant que la moitié des articles rédigés par l’IA générative contenait des informations fausses ou inexactes. Une autre étude portant sur la fonction “recherche” des LLM, utilisée pour trouver des informations sur le web, vient d’établir un taux d’erreur supérieur à 60 % pour les huit principales IA. Les versions premium payantes (ChatGPT et Grok 3) se trompant dans 67 % et 94 % des cas (respectivement).
Quant aux gains de productivité tant attendus, ils se font encore désirer. De nombreuses études ont démontré que l’utilisation de l’IA générative dans des secteurs aussi prometteurs que la programmation, le consulting, l’éducation et l’administration publique ne produisait pas de gain de productivité, voire détériorait les performances des salariés. Le PDG de Air BNB Brian Chesky, lors d’une assemblée des actionnaires, a concédé que « le déploiement d’IA pour assister les programmeurs n’a pas produit de changement fondamental en termes de productivité » avant d’ajouter « j’ai discuté avec de nombreux PDG du secteur de la Tech, la majorité n’a pas vu de gains de productivité ».
Certes, de nombreuses professions sont déjà négativement impactées par le déploiement de l’IA, subissant des pertes d’emplois et baisses de revenus. Il existe également des exemples d’applications intéressantes de l’IA. Mais cela reste quelque peu anecdotique.
The Economist avertissait récemment que la croissance promise par l’IA et la réduction de la masse salariale qu’elle devait permettre ne seront pas pour tout de suite. Le journal note que l’IA n’a eu aucun impact notable sur l’économie américaine ou britannique, et que le taux d’adoption de cette technologie (6 % des entreprises américaines contre 20 % des entreprises britanniques, selon une enquête du Census Bureau américain) stagnait depuis 2022. Un état de fait qui risque de se prolonger en 2025, puisque seulement 7 % des entreprises américaines prévoient de déployer des outils d’IA dans les prochains mois, toujours selon The economist.
Certains justifieront le déploiement de ses IA génératives comme une étape nécessaire pour atteindre l’IA générale (IAG). Mais de nombreux experts considèrent que c’est faire fausse route.
Selon Yann Le Cun, père du deep learning et désormais responsable de la recherche en IA chez Meta, continuer de développer les larges modèles de langage ne permettra pas d’aboutir à l’IAG. Ce serait même une déviation ou une voie de garage. L’idée qu’il suffit de construire des data centers plus gros et d’aligner une puissance de calcul démesurée pour s’approcher de l’IA générale ne convainc plus grand monde. L’industrie semble réaliser que cette stratégie d’hyperscaling ne paye plus. OpenAI a repoussé la sortie de son ChatGPT-5 et parle désormais de modèles hybrides et « d’agents » combinant un modèle de langage avec des applications plus spécifiques pour effectuer des tâches précises, sans grand succès pour le moment. D’où cette question : pourquoi continuer à investir des sommes colossales dans cette technologie écocide ? Pour faire de l’argent ?
Le mirage d’une IA générative rentable, ou l’éclatement probable de la bulle IA
Dans sa forme actuelle, l’IA générative type ChatGPT, n’est pas rentable. D’abord parce qu’elle coute extrêmement cher à mettre au point puis à commercialiser, ensuite parce qu’il n’y a pas de réel débouché.
Prenons OpenAI, leader incontournable du secteur avec son logiciel ChatGPT. Dans une analyse détaillée sur laquelle je vais m’appuyer, le journaliste technocritique Ed Zitron examine le bilan financier de 2024, sur la base des données rapportées par The Information, CNBC et le New York Times. La start up a dépensé 9 milliards de dollars sur l’année, dont 3 pour entrainer ses modèles et 2 pour générer les réponses aux requêtes des utilisateurs de ChatGPT (les inférences). À cela s’ajoutent entre 1 et 1,5 milliard de dollars de masse salariale (salaires et stock options) et divers frais fixes qui excluent les investissements dans les data centers. Jusqu’à récemment, la start up bénéficiait d’un accord avec Microsoft (qui a investi 13 milliards dans OpenAI) pour accéder librement à ses data centers. OpenAI jouissait aussi d’un tarif préférentiel pour utiliser les serveurs de Microsoft afin de faire tourner ses modèles (1.5 $ par heure de GPU au lieu du prix de marché de 3.40 à 4 $ heure/GPU). Malgré ces subventions, OpenAI a perdu 5 milliards de dollars en 2024.
Le chiffre d’affaires serait de 4 milliards de dollars, dont 3 proviennent des abonnements payants à ChatGPT et le dernier des droits versés par des entreprises clientes pour utiliser les API (Application Programming Interface - une licence pour utiliser ChatGPT comme base au développement d’une application tierce). Autrement dit, ses revenus ne couvrent pas les frais de fonctionnement de ses modèles (3 milliards pour le développement et 2 pour l’utilisation).
Bien sûr, Uber, Facebook, Google, Amazon et d’innombrables autres start up ont commencé par perdre beaucoup d’argent avant d’en gagner. Mais la différence entre l’IA générative et la plupart des produits issus de la Silicon Valley tient dans l’absence d’économie d’échelle. Lorsqu’une entreprise informatique classique met un logiciel sur le marché, chaque client supplémentaire vient gonfler le bénéfice. Il n’y a presque pas de couts additionnels. Même un réseau social comme Facebook, qui doit augmenter ses capacités de stockage de données et sa quantité de serveurs lorsque son nombre d’utilisateurs augmente, voit son cout par nouveau client diminuer du fait des économies d’échelles.
Ce n’est pas le cas des LLM les plus avancés. À chaque fois qu’un utilisateur effectue une requête, les serveurs de l’entreprise commercialisant l’IA doivent tourner pour fournir une réponse. Autrement dit, chaque nouvel utilisateur de ChatGPT augmente les couts d’OpenAI. Même la version Premium de ChatGPT-4 à 200 dollars par mois perdait de l’argent, selon Sam Altman. Quant au nouveau modèle ChatGPT-4.5, il nécessite une telle puissance de calcul qu’OpenAI limite le nombre d’utilisateurs y ayant accès. Un phénomène qui n’est pas unique à ChatGPT : même Microsoft perdait de l’argent avec son agent d’aide à la programmation, GitHub Copilot.
Si les couts de fonctionnement augmentent avec les revenus, les couts d’entrainement ne sont pas fixes non plus. Il ne suffit pas à OpenAI d’entrainer une fois pour toutes ses modèles comme Amazon investit une seule fois pour bâtir un entrepôt supplémentaire. Si OpenAI arrête de produire de nouveaux modèles ou ne met plus à jour ses anciens, ses clients partiront vers un concurrent. Et les couts de développement continuent d’augmenter avec la complexification des modèles, tout en montrant des rendements décroissants : les modèles les plus récents (Grok 3, ChatGPT4.5) ont nécessité des puissances de calcul largement supérieures à leurs concurrents pour des gains qualitatifs faibles, voire insignifiants.
Grok 3 ne sait pas qui est le Premier ministre de la France, pense que François Bayrou est à la retraite et s’avère incapable d’annoter un schéma. ChatGPT 4.5 serait particulièrement décevant. Quel que soit l’agent conversationnel choisi, les mêmes problèmes qui minaient les premières versions persistent : tendance à halluciner des réponses fausses, imprécisions, incapacité à effectuer de nombreuses tâches à la portée d’un enfant, absence de sens commun, erreur flagrante de raisonnement…
Ce qui pose la question du marché potentiel. OpenAI est de très loin le leader du secteur, avec 400 millions d’utilisateurs hebdomadaires revendiqués et entre 500 et 600 millions d’utilisateurs mensuels, selon des estimations indépendantes. Un chiffre qui placerait ChatGPT derrière les douze premiers réseaux sociaux mondiaux, malgré un battage médiatique constant depuis sa sortie en 2022. Il faut garder à l’esprit que l’on parle du produit le plus discuté et le plus « révolutionnaire » de ces deux dernières années, distribué gratuitement et disponible via n’importe quel smartphone ou navigateur internet. OpenAI n’aurait que 15 millions d’abonnés payant, soit un taux de conversion de 2.5 %. En guise de comparaison, le New York Times possède 11 millions d’abonnés à la version numérique, alors qu’il s’agit d’un titre de presse équivalent à de nombreux autres journaux et centré sur les États-Unis. Qu’en est-il des concurrents d’OpenAI ?
- Google semblerait avoir 275 millions d’utilisateurs actifs de son IA « Gemini », un nombre qui stagne depuis l’été 2024 malgré l’intégration de cet outil aux autres produits Google. La firme ne communique pas sur le nombre d’abonnés payants, ce qui suggère un sacré flop lorsqu’on sait que l’application Gemini elle-même ne totalise que 47 millions d’utilisateurs actifs
- Anthropic ne totaliserait que 19 millions d’utilisateurs mensuels, dont 3 millions, via l’Application Claude. La société aurait engrangé 918 millions de dollars de chiffre d’affaires pour une perte nette de 5 milliards de dollars en 2024. Elle est pourtant valorisée à hauteur de 60 milliards de dollars suite à sa dernière levée de fonds (vous avez dit “fake tech” ?)
- Perplexity serait encore plus bas, avec 15 millions d’utilisateurs, pour un chiffre d’affaires de 35 millions de dollars malgré une valorisation à 9 milliards suite à la levée de fonds de décembre.
- Le Chat, de Mistral, aurait dépassé le premier million de téléchargements.
- Copilot, de Microsoft, revendique 27 millions d’utilisateurs. Cela ne compte pas les utilisateurs de la version intégrée à Windows 365, mais il est important de noter que seul 1 % des clients de Microsoft paye le supplément pour intégrer Copilot à Windows 365. La firme a rapporté 13 milliards de dollars de chiffre d’affaires lié à l’IA en 2024, sans fournir davantage de précision (le chiffre inclut probablement la location de ses data centers et serveurs). Soit 4 % des 245 milliards de dollars de chiffre d’affaires de Microsoft, une goute d’eau.
Conclusion ? Si le nombre d’utilisateurs total semble impressionnant, le taux de conversion en abonnement payant est ridiculement faible. Les professionnels ne semblent guère plus friands de ces produits, comme en témoigne le faible niveau de revenu dégagé par OpenAI via ses licences API.
Or le secteur devient de plus en plus concurrentiel. Il faudrait ajouter aux acteurs précédant le modèle Lama de Meta (intégrés à Facebook, WhatsApp, Instagram…), Grok d’Elon Musk (intégré à X), les nombreux concurrents chinois au-delà de DeepSeek et l’arrivée imminente d’un modèle “grand public” produit par Amazon. La guerre des prix et le nivellement par le bas ne font que commencer.
Tous ces acteurs espèrent devenir le prochain Google ou Facebook de l’IA, définir le standard global et obtenir un avantage concurrentiel décisif pour capturer la majorité du marché. D’où les investissements colossaux dans les infrastructures, la compétition féroce pour attirer les talents et l’exagération des performances. Mais le succès de DeepSeek, ou dans une moindre mesure, de Mistral, montre qu’il n’est pas nécessaire de faire la course en tête pour jouer dans la cour des grands. Dans le meilleur des cas, on pourrait observer un phénomène similaire à l’explosion de la bulle internet, où seules les entreprises les mieux financées et disposants d’un vrai avantage technologique avaient survécu.
Si tous les modèles se valent, sont intégrés d’offices dans de nombreux outils et sont développés par une douzaine d’acteurs, il sera difficile à l’un d’entre eux de devenir rentable. Surtout lorsque des applications plus spécifiques peuvent être développées par de petites équipes via l’open Source pour une fraction des couts initiaux.
Le modèle de DeepSeek capable de “raisonner” présente des performances comparables aux versions les plus abouties de ChatGPT. Grok 3 propose également un mode “think” et une option “Deep search” inspirée de la fonctionnalité “Deep research” d’OpenAI. Pour se différencier, ce dernier prévoit de commercialiser un agent “doctorant” capable d’aider un chercheur et des agents “programmeurs” pour les développeurs en informatique. Les prix évoqués (20 000 dollars par mois pour le premier, 10 000 pour le second) sont supérieurs à ce qu’on payerait sur le marché du travail pour un équivalent en chair et en os. Ce qui pose encore une fois la question de la viabilité financière de tels produits.
D’où une tendance à imposer l’utilisation et le déploiement de ces outils, malgré le peu d’enthousiasme des usagers. Après les modèles d’IA embeded de force dans les moteurs de recherches et réseaux sociaux, attendez-vous à voir différents gouvernements et services publics les adopter envers et contre toute logique.
L’IA envers et contre tous
Récapitulons. Le développement accéléré de l’IA générative génère de nombreuses conséquences néfastes. Elle repose sur l’exploitation des travailleurs de l’ombre, provoque des retombées désastreuses sur l’environnement, expose la société à de multiples risques, rend les utilisateurs moins intelligents et compétents, détruit l’esprit critique, pollue internet et la recherche scientifique, est utilisée comme une arme de propagande, devient un outil destiné à des fins militaires, détériore les conditions de travail des salariés, fait pression à la baisse sur les salaires et ne génère quasiment aucun gain de productivité.
Ce développement alimente une bulle financière géante, dans l’espoir d’aboutir sur des IA super intelligentes susceptibles de détruire l’emploi qualifié. Fin 2024, 500 milliards de dollars auraient déjà été dépensés7 pour des résultats peu convaincants. Or, dans ce secteur ultra-concurrentiel, la moindre innovation est copiée en quelques mois, réduisant les chances de déboucher sur des technologies rentables.
Ce qui entraine un autre risque : celui de se faire imposer l’IA de force. Bien qu’ils ne soient pas au point, ces outils sont de plus en plus fréquemment intégrés à notre quotidien, dans les produits commercialisés par les géants de la Tech, mais également dans les services publics et entreprises. Bien sûr, certaines applications sont bénéfiques. Mais il devient de moins en moins facile d’éviter d’avoir affaire à un chatbot quand on veut parler à son banquier ou à son fournisseur d’électricité. Bientôt, ce sera le tour des services publics, de l’école aux caisses d’assurances maladie en passant par les médecins traitants. Non seulement pour servir l’usager, mais également pour l’identifier et le surveiller, comme c’est déjà le cas dans certains domaines. Ces cas particuliers sont appelés à se généraliser et les rapports humains à s’effacer devant l’IA. Pour la simple raison que, puisque ces intelligences artificielles génératives ne sont pas rentables, il va bien falloir que quelqu’un rembourse tous ces investissements. Quitte à ce que les gouvernements se servent de ces technologies pour casser les services publics, comme tente de le faire Donald Trump aux États-Unis et Keir Stramer en Angleterre.
À moins que la bulle n’éclate avant. On pourra alors repenser cette technologie, pour la concevoir comme un bien commun au service du public, respectueuse des principes humanistes les plus élémentaires et conçue démocratiquement.
Cet article est extrait d'un long format sur l'IA publié sur ma Newsletter "Fake Tech", en accès libre ici.