L'IA, INSTRUMENT DE LIBÉRATION DES MAJORITÉS OU D'ACCENTUATION DE LEUR DOMESTICATION ET DE LEUR EXPLOITATION ?
Alejandro Teitelbaum
La planète est en passe de devenir un vaste camp de rééducation pour la majorité de l'humanité, où on lui dira quoi consommer, quel doit être son avis sur différents sujets sociétaux, pour qui voter, etc. Ce à quoi presque tout le monde acquiescera, satisfait d'être épargné de la corvée de penser par soi-même.
En novembre 2022 OpenAI, une entreprise crée en 2015 à « but lucratif plafonné », dont le siège social est à San Francisco, spécialisée dans le raisonnement artificiel et le dialogue, lança le ChatGPT (Generative pre-trained transformer), un prototype d'agent conversationnel utilisant l'intelligence artificielle dans une version gratuite et non connectée à Internet. En janvier 2023, ChatGPT comptait plus de 100 millions d’utilisateurs enregistrés. Et en avril 2023 OpenAI produit une version professionnel payante.
Le mot « chat » désigne un fil de discussions dans lequel les internautes échangent des messages de manière instantanée. La particularité de ChatGPT est de permettre à un internaute de discuter non pas avec d'autres internautes mais avec un système basé sur une intelligence artificielle.
À la mi-2023, on comptait de nombreuses entreprises spécialisées dans l'IA, les dix premières générant un chiffre d'affaires compris entre un peu moins de dix et un peu plus de 60 milliards de dollars. (https://intelligence-artificielle.com/top-entreprises-intelligence-artificielle/)
OpenAI, qui a demarré avec une levée de fonds d’un milliers de dollars en 2015, est une société co-créée par Elon Musk et Sam Altman, est valorisée à 29 milliards de dollars américains en 2023. Elle est inscript comme une societé sans fins lucratifs.
Il s'agit d'un pas de plus, peut-être un saut qualitatif, dans le contrôle des êtres humains, en termes d'attitudes physiques, de préférences, d'opinions, etc., que, dans les anciennes civilisations, son instrument étaient les prêtres et les sorciers et que dans l'ère moderne a commencé par le contrôle physique avec le taylorisme et s'est poursuivi avec diverses instruments électroniques jusqu'à arriver au contrôle presque total des esprits et des corps.
Les individus peuvent penser que leur capacité de décision leur appartient encore. Cependant, elle les a été expropriée et se trouve maintenant entre les mains d'un petit conglomérat d'entités appartenant à un groupe d'individus qui possèdent la majeur partie du capital financier. Les transformations scientifico-techniques de la société au cours du siècle dernier sont énormes, mais la base qui détermine les relations humaines reste la même: le pouvoir de décision appartient aux propriétaires des instruments et moyens de production, qui incluent les machines jusqu'à l'IA.
Un article de Justin Delepine dans le magazine Alternatives Económiques donne une bonne approche de l'événement technologique social qu’ implique ChatGPT. Nous nous permettons de citer quelques extraits ci-dessous.
Les cinq questions que pose le succès de ChatGPT –Justin Delepine
Le bot a bluffé le monde par sa capacité à répondre dans un style littéraire impeccable à des questions sur une palette quasi illimitée de sujets.Que ce soit pour qu’il explique la différence entre deux éléments chimiques ou pour écrire un récit dans le style de tel ou tel auteur, Cent millions d’internautes l’ont interrogé sur le seul mois de janvier 2023. ChatGPT est ainsi devenu le service numérique ayant connu le démarrage le plus rapide de l’histoire. Peut-il modifier nos sociétés comme Internet ou le smartphone l’ont fait avant lui ? Réponse en cinq points.
1-Est-ce vraiment révolutionnaire ?
Comme la plupart des outils d’intelligence artificielle (IA), la force de ChatGPT provient surtout de sa capacité d’apprentissage. Cet outil a été entraîné avec une quantité phénoménale de données, à savoir l’ensemble de ce qui compose le Web, de la totalité de Wikipedia aux centaines de millions de sites qui existent sur la Toile. A partir de ces données, il a été entraîné via une multitude de questions, certaines générées automatiquement et d’autres supervisées par l’homme. Selon la justesse de la réponse, la machine pondère ses 175 milliards (!) de paramètres pour se rapprocher de l’objectif attendu. Plusieurs universités ont ainsi fait passer des examens à l’agent conversationnel, avec succès.Cela signifie-t-il que son développeur, l’entreprise OpenAI, a passé un cap dans le développement de l’IA ? « Tout ce que fait ChatGPT et toutes les méthodes qui lui permettent de le faire existent depuis plusieurs années, tranche Christophe Servan, chercheur au Laboratoire interdisciplinaire des sciences du numérique (LISN). Il n’y a pas de grande percée scientifique », appuie-t-il. Les scientifiques ne sont pas impressionnés : la technologie GPT sur laquelle repose ce chatbot est en effet connue depuis quelques années et est utilisée par d’autres. Avec ChatGPT, OpenAI est donc certes à la pointe du développement de l’IA, mais au même titre que d’autres laboratoires comme DeepMind (filiale de Google), les équipes de Facebook ou d’autres encore. La nouveauté vient du fait d’avoir sorti un chatbot généraliste et surtout de l’avoir rendu accessible au grand public.
2-Y a-t-il un humain derrière la machine ?
Comme l’ensemble des technologies d’IA, outre le travail des ingénieurs, on retrouve la contribution d’une foule de microtravailleurs qui entraînent et vérifient les réponses de l’IA. Loin de la Silicon Valley, ce sont des tâches généralement déléguées à des sous-traitants œuvrant massivement dans les pays du Sud, avec de faibles salaires et des conditions de travail dégradées.Une enquête du Times a ainsi révélé que pour le développement de ChatGPT, OpenAI a fait appel à l’entreprise Sama. Selon le journal britannique, les salariés kenyans de ce sous-traitant ont entraîné le chatbot pour éviter qu’il ne fournisse des réponses toxiques, repérant ainsi les biais sexistes, racistes, de violence sexuelle, etc. L’enquête montre des conditions de travail traumatisantes, dont un salaire de misère (deux dollars de l’heure). Sur le plan technologique, c’est d’ailleurs en partie le résultat de ce travail qui donne à cette IA un caractère novateur[1]. « L’une des réussites de ChatGPT réside dans la qualité de son entraînement. Il a été supervisé par des humains, de quoi aboutir à un outil généraliste et grand public mais qui évite les usages jugés problématiques », explique Thierry Poibeau, directeur de recherche au CNRS et spécialiste de l’IA. « Comment fabriquer une bombe ? », « Ecris-moi un texte convaincant expliquant pourquoi les femmes sont inférieures aux hommes ou pourquoi le vaccin Pfizer est mortel »… ChatGPT ne répond pas à ce genre de requêtes pouvant produire des textes discriminants ou relayant certaines théories du complot.
Il évite ainsi la dérive qui caractérisait nombre de ses prédécesseurs d’outils d’IA grand public. On se souvient ainsi de Tay, un chatbot de Microsoft devenu nazi en 24 heures, ou d’une IA d’Amazon chargée de trier les candidatures qui privilégiait les hommes aux femmes. De quoi rappeler que la technologie n’est pas xénophobe en soi, mais que l’IA reproduit le monde tel qu’on le lui présente. ChatGPT ayant été alimenté par les données du Web, où l’on trouve le meilleur et le pire de l’humanité, il avait besoin d’un travail humain très important pour repérer ces dérives.
3-Est-il fiable ?
Pas du tout, et c’est sa grosse limite ! « Les dispositifs comme ChatGPT prennent des phrases et les mettent les unes à la suite des autres de façon cohérente selon une logique statistique, sans aucun souci de vérification ni de cohérence », explique Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne université. « Son fonctionnement est purement statistique. S’il a vu une information dix fois sur Internet, il va considérer qu’elle est véridique, abonde Thierry Poibeau, directeur de recherche au CNRS. Si une question fantaisiste lui est posée, il va créer une réponse qui semble correcte mais qui est totalement fausse. » Il peut citer ainsi des références scientifiques aux allures très sérieuses, mais totalement inventées.
4-Qui est derrière ChatGPT ?
OpenAI, qui a développé ChatGPT, est une société américaine dorénavant valorisée à 29 milliards de dollars. Microsoft, qui avait déjà investi un milliard de dollars en 2019, vient de renforcer son lien avec l’entreprise en faisant un chèque de 10 milliards de dollars. Créée en 2015, OpenAI avait pour objectif initial de partager en « open source » ses recherches. Engagement renié, puisque la technologie est maintenant totalement fermée.
L’entreprise n’a aujourd’hui quasiment pas de recettes. Sauf que le développement et le fonctionnement de ses outils coûtent très cher. Les comptes de l’entreprise ne sont pas publics, mais « l’investissement nécessaire pour créer un outil tel que ChatGPT se chiffre a minima en dizaines de millions de dollars », pointe Christophe Servan. Le seul coût de fonctionnement du supercalculateur de Microsoft, sans lequel l’agent conversationnel ne répond à aucune question des internautes, se calcule, selon les estimations de certains spécialistes, en millions de dollars par mois au vu de l’audience actuelle du service.
OpenAI a présenté début février une ébauche de modèle économique. L’entreprise propose désormais une formule payante : pour 20 dollars par mois, le client profitera en avant-première des nouvelles fonctionnalités et aura surtout un accès garanti au chatbot, un « privilège » dans la mesure où le service a régulièrement été inaccessible ces dernières semaines du fait d’un nombre de requêtes trop important. Ce début de commercialisation ne constitue que les prémices d’un modèle qui reste à inventer. OpenAI est surtout en train de devenir progressivement le partenaire privilégié de Microsoft pour le développement de l’IA, puisque le géant informatique bénéficie d’une licence exclusive et intègre la technologie d’OpenAI à la quasi-totalité de ses outils : Bing, son moteur de recherche, Windows 11, Word, Azure (son service cloud), Outlook, PowerPoint, etc.
5-Va-t-il remplacer Google ?
Les alarmes sont allumées chez Google. Un « code rouge » aurait même été déclenché au sein de l’entreprise pour accélérer le rythme de déploiement des outils d’IA. La crainte pour la firme américaine est d’être dépassée sur une innovation de rupture qui balaierait les services sur lesquels repose aujourd’hui sa position dominante. De la même manière que Microsoft a loupé le virage du smartphone avec la mainmise de Google sur les systèmes d’exploitation (Android), ChatGPT pourrait constituer un « Google killer ».
Le géant américain vient de répliquer en annonçant la sortie dans les prochaines semaines de son propre agent conversationnel : Bard. Baidu, le Google chinois, a fait de même début février en sortant le sien : Ernie.
Derrière cette guerre de communication se joue une potentielle évolution du modèle des moteurs de recherche. Les questions que l’on pose aujourd’hui à Google obtiennent comme réponse un lien vers un site Web. Demain, un chatbot comme ChatGPT pourrait directement donner une seule réponse, présentée comme la bonne.
« L’un des apports d’un chatbot est d’introduire des mécanismes de dialogue dans lesquels le système garde en mémoire les précédentes questions pour formuler ses réponses, explique Christophe Servan. A l’inverse, les moteurs de recherche traitent toutes les questions de façon indépendante les unes des autres. »
A cela s’ajoute le poids écrasant du mobile dans l’usage d’Internet, « où la promesse d’avoir sur un petit écran les 100 meilleures réponses à une requête pourrait avoir du mal à gérer la concurrence d’un ChatGPT qui ne propose qu’une seule réponse », souligne Christophe Servan. Une promesse certes simple et efficace mais qui pose une énorme question : quelles sources d’information ont permis d’arriver aux réponses ? ChatGPT n’en donne pour l’instant aucune. D’autres questions restent également à ce stade sans réponse : quelle diversité des points de vue dans la réponse ? Ou encore quel respect du droit d’auteur dans un modèle qui ne renvoie même plus vers les sites des éditeurs et créateurs ?
« Cela fait longtemps que les grands industriels de l’Internet essaient de mettre en place des systèmes de dialogue automatique, explique Jean Gabriel Ganascia, car s’ils y arrivent, ils peuvent dominer tout le segment terminal de la chaîne de valeur. » Contrôler la recherche revient en effet à contrôler l’interface avec le consommateur, et cela confère un pouvoir de marché sur tous les autres acteurs qui cherchent à se partager la valeur. Ainsi, Booking, plate-forme de réservations d’hébergements, parvient désormais à imposer ses commissions au monde de l’hôtellerie… (Delepine: https://www.alternatives-economiques.fr/5-questions-pose-succes-de-chatgpt/00106001).
Le 8 mars 2023, le New York Times a publié un article intitulé The false promise of chatGPT, rédigé par trois experts[2], dans lequel ils évoquent la différence qualitative insurmontable entre l'intelligence humaine et l'IA :
Contrairement au ChatGPT et à ses semblables, l'esprit humain n'est pas une lourde machine statistique de mise en correspondance de modèles, qui compile des centaines de "téraoctets" de données et extrapole la réponse la plus probable dans une conversation ou la réponse la plus probable à une question scientifique. En revanche, l'esprit humain est un système étonnamment efficace, voire élégant, qui travaille avec de petites quantités d'informations ; il ne cherche pas à déduire des corrélations flagrantes entre des points de données, mais à obtenir des explications.
Par exemple, un jeune enfant qui apprend une langue développe (inconsciemment, automatiquement et rapidement à partir de données infimes) une grammaire, un système incroyablement sophistiqué de principes et de paramètres logiques. Cette grammaire peut être comprise comme une expression du "système d'exploitation" inné, installé dans les gènes, qui confère aux êtres humains la capacité de générer des phrases complexes et de longues chaînes de pensée. Lorsque les linguistes tentent d'élaborer une théorie expliquant pourquoi une langue donnée fonctionne comme elle le fait ("Pourquoi ces phrases sont-elles considérées comme grammaticales et pas celles-là ?"), ils construisent consciemment et laborieusement une version explicite de la grammaire que l'enfant construit par instinct et avec un minimum d'exposition à l'information. Le système d'exploitation de l'enfant est complètement différent de celui d'un programme d'apprentissage automatique.
En fait, ces programmes sont bloqués dans une phase pré-humaine ou non-humaine de l'évolution cognitive. Leur défaut le plus profond est l'absence de cette capacité qui est la plus cruciale de toute intelligence : dire non seulement ce qui est le cas, ce qui a été le cas et ce qui sera le cas - c'est-à-dire la description et la prédiction - mais aussi ce qui n'est pas le cas et ce qui pourrait et ne pourrait pas être le cas. Tels sont les ingrédients de l'explication, la marque de la véritable intelligence.( https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html). Traduction en espagnol: https://sinpermiso.info/textos/la-falsa-promesa-de-chatgpt
Evgueni Morozov, professeur à l´Université de Stanford, dans un entretien publié dans El Pais Semanal (Espagne) le 21/12/2015) disait :
La Silicon Valley a fait une sorte d'alliance dans les années 70 avec les intellectuels. Il y aura toujours des gens, que j'appellerai des idiots utiles, qui tenteront de capter l'esprit du temps. Il y aura des livres, des conférences et des exposés pour que ces intellectuels puissent servir de porte-parole à la cause. La Silicon Valley favorise les mini-récits. Il nous parle du web 2.0 et, quand il s'épuise, il parle de l'internet des objets, de l'économie collaborative... Ils identifient de petits fragments, occupent le débat pendant deux ans et sortent ensuite une nouvelle histoire. Il n'y a pas beaucoup de contenu dans ces récits. J'ai travaillé assez longtemps sur ce sujet pour dire que c'est un non-sens. Après l'économie collaborative viendra l'économie du partage, l'économie des soins. Ce que ces entreprises nous disent est faux. Lorsque je me promène en disant que pour comprendre la Silicon Valley, il faut se pencher sur Wall Street, le Pentagone, la finance, la géopolitique ou l'impérialisme, ils sont mal à l'aise parce qu'ils préfèrent parler de fonds de capital-risque, d'entrepreneurs, du garage de Steve Jobs, du LSD... Ces appareils dits intelligents que nous utilisons, peuvent-ils nous rendre plus stupides ? Le mot "intelligent" devrait être remis en question. J'aime appliquer une perspective historique. La plupart des appareils intelligents qui nous entourent reflètent les intérêts et les engagements des personnes qui les fabriquent ou les configurent. Si les gens consultent sans cesse Facebook ou Twitter sur leur téléphone, c'est parce que les systèmes sont conçus pour créer ces dépendances. Le modèle économique de ce type de services est le suivant. Plus je reçois de clics, plus j'ai de la valeur ; c'est presque comme le conditionnement de Pavlov. Plus ils obtiennent de clics de ma part, plus ils gagnent de l'argent. Ils conçoivent donc les services pour maximiser ces clics. J'ai une perspective cynique, banale et rationnelle selon laquelle l'argent dirige le monde. Que ce système nous distrait et nous empêche de nous concentrer ? Bien sûr. Est-ce un problème avec les appareils intelligents ? Non. C'est une question de modèle économique. Je refuse de croire qu'il n'existe pas d'autre moyen de générer une communication entre les gens sans générer de distraction. Ce serait l'ultime défaite de l'imagination.
Pour mieux comprendre les véritables mécanismes qu'implique le développement du numérique, Evgeny Morozov propose dans son livre Pour tout résoudre cliquez ici - l'aberration du solutionnisme technologique. Septembre 2014: « d'abandonner la notion d'Internet et de se pencher sur les technologies individuelles qui le composent ». Sans nier les bouleversements entraînés par la transformation numérique, Morozov critique le « webcentrisme » et le déterminisme technologique. Il oppose le déclin de l'État-providence et l'essor des multinationales du numérique, et met en avant les confrontations à venir dans des domaines comme la santé ou l'éducation : « La santé, l’éducation, les transports, la connectivité sont les prochaines étapes : les progrès dans la collecte et l’analyse des données vont consolider le poids du secteur privé, et Uber, Google, Airbnb ou Facebook proposer des services à des citoyens qui ne peuvent plus compter sur l’État-providence. Ce ne sera plus le vieux modèle de solidarité et de socialisation du risque, mais l’avènement d’un modèle néolibéral très individualisé. Au moins, en ce qui concerne la santé, ils nous fourniront des gadgets subventionnés pour suivre l’évolution de notre propre misère… ».
(Voir aussi de Morozov, Le mirage numérique. Pour une politique du big data. Edit. Les Praires ordinaires. 2015).
La généralisation du télétravail et de l'intelligence artificielle ont achevé le contrôle de l'employeur sur l'esprit et le corps des travailleurs.
Dominique Méda écrit: « Les outils d’intelligence artificielle peuvent désormais surveiller et analyser les performances physiques au travail.Une étude du département de la recherche de l’Organisation internationale du travail parue en août montre qu’à certaines conditions (notamment un dialogue social renforcé), la diffusion de l’IA pourrait créer des emplois, mais que des risques non négligeables pèsent sur l’emploi des femmes dans les pays à revenus élevés.
Mais ce sont sans nul doute les effets du développement de l’IA sur le travail humain lui-même, plus que sur l’emploi, qui méritent la plus grande attention. Depuis plusieurs années, de nombreuses recherches ont mis en évidence la diffusion à grande vitesse d’un « management algorithmique », c’est-à-dire d’une gestion des conduites humaines et des relations de travail à l’aide d’instructions encapsulées dans un logiciel. Par exemple, les chauffeurs VTC ou les livreurs à vélo qui utilisent les applications des plates-formes numériques voient leur parcours guidé et analysé par un algorithme, qui incite à l’adoption de certains comportements et peut générer des sanctions telles que la déconnexion”.https://www.lemonde.fr/idees/article/2023/10/21/dominique-meda-les-outils-d-intelligence-artificielle-peuvent-desormais-surveiller-et-analyser-les-performances-physiques-au-travail_6195697_3232.html
TROIS PETITES NOTES.
1 - Nuria Labari, journal El Pais, Espagne, 13 mai 2023 :
Google I/O 2023, l'événement au cours duquel l'entreprise présente ses nouveautés pour l'année à venir, a été dominé par l'arrivée de l'IA dans tous ses produits, de Google Maps à Gmail, en passant par les photos et, bien sûr, son moteur de recherche. Le slogan de la présentation était "Rendre l'IA utile pour tout le monde", ce qui signifie en réalité que l'intelligence artificielle devient obligatoire pour tout le monde. Selon l'entreprise, l'année prochaine, l'IA sera au centre de toutes nos interactions, et le bloc d'informations générées par l'IA occupera une place prépondérante, même si les réponses de l'IA seront accompagnées de liens vers des sources officielles.
Notre expérience en tant qu'utilisateurs est claire : le moteur de recherche d'informations que nous utilisons le plus est Google. Et son algorithme hiérarchise les informations pour nous et récompense certains contenus par rapport à d'autres selon des critères qui servent avant tout les intérêts commerciaux de l'entreprise. YouTube en est un exemple flagrant. Ainsi, au cours de la dernière décennie, Google a favorisé le positionnement de toute vidéo publiée sur YouTube (propriété de l'entreprise) par rapport aux acteurs de la télévision, aux plateformes ou aux journaux... Résultat ? Lorsqu'un média, une marque ou un créateur souhaitait publier une vidéo, il devait choisir entre la créer sur YouTube ou miser sur un acteur qui n'était pas bien classé sur le moteur de recherche le plus utilisé de la planète. La plupart d'entre eux ont donc accepté non seulement de travailler selon les règles de Google, mais aussi de payer pour cela, car la plateforme prélève un pourcentage des recettes publicitaires que toute vidéo peut générer.
Soit dit en passant, ce qui est arrivé à la vidéo était déjà arrivé aux informations textuelles auparavant. Depuis son apparition, Google a choisi les actualités à afficher en tête et celles à enterrer dans ses listes, récompensant la conception de l'information déterminée par l'entreprise au détriment de la rigueur journalistique. Ainsi, de nombreux médias se sont spécialisés dans la création de contenus SEO (Search Engine Optimisation), conçus dans le seul but de se classer dans son moteur de recherche. Alors que se passera-t-il si le moteur de recherche de Google devient IA, et les médias se jetteront-ils dans la création d'informations avec l'IA avec le même enthousiasme que celui qu'ils consacraient auparavant au référencement ?
Eh bien, la prochaine chose est que le moteur de recherche de Google va intégrer les informations créées par l'IA dans la première position de recherche, ce qui signifiera un saut dans la façon dont nous nous rapportons à l'information. Et bien que les conséquences d'une intégration trop rapide de l'IA dans nos vies puissent nuire à l'avenir de millions de travailleurs et soulever des conflits avec la véracité de certaines informations ou images - Geoffrey Hinton, ancien vice-président de l'ingénierie chez Google, met en garde contre les risques de l'IA depuis sa démission - l'entreprise semble déterminée à consolider son monopole avant de s'arrêter pour penser à l'avenir de l'humanité. Cependant, il est trop tôt pour dire quel sera l'impact de l'IA sur l'information. Ce que l'on sait, c'est que Google a un intérêt économique à sa diffusion à grande échelle (il vient de lancer Bard, l'IA avec laquelle il va concurrencer ChatGPT) et il serait naïf de penser que son pari ne s'accompagne pas d'un business plan. Ce qui est extraordinaire, c'est qu'aucun gouvernement n'ait été capable d'élaborer le plan social, juridique et économique qui devrait accompagner un changement de cette ampleur.
2 - William Audureau, Les images conçues par intelligence artificielle, nouvel outil de désinformation. Publié dans le journal Le Monde le 13 avril 2023.
Sur les réseaux sociaux commencent à circuler des photographies entièrement créées par intelligence artificielle. Leur usage, pour l’heure surtout satirique, pourrait menacer à terme la sincérité des débats publics.
Comme un petit air de dystopie. Alors que le mois de mars a été marqué par l’escalade de violence entre une partie des opposants à la réforme des retraites et des forces de l’ordre, c’est un nouveau type d’images-chocs qui a commencé à circuler sur les réseaux sociaux : des photographies entièrement conçues par intelligence artificielle (IA).
Ainsi de ce cliché d’un octogénaire édenté, tempes en sang, entouré de plastrons et de visières d’unités de maintien de l’ordre, présenté sur Twitter comme un « manifestant » dont l’image aurait « fait le tour du monde ». A défaut du monde, elle a fait le tour des observateurs de la désinformation, jusqu’à ce que le 31 mars, AFP Factuel ne prouve son caractère artificiel. Ladite photo avait en fait été générée sur la dernière version en date de Midjourney, un puissant algorithme dont les progrès fulgurants font craindre qu’il ne soit bientôt plus possible de discerner le chimérique de l’authentique.
Ces dernières semaines, de nombreux médias ont publié leur guide pratique pour apprendre à reconnaître une image conçue par IA. Tous en arrivent à deux conclusions : les logiciels de ce type se trahissent encore eux-mêmes par quelques détails grossiers ou incohérents (souvent le nombre de doigts ou des textes absurdes), mais à la vitesse à laquelle ils progressent, ces faux sophistiqués devraient bientôt berner même les regards les plus vigilants.
Nouvelle ère du faux
Fin mars, au nom de tardives préoccupations éthiques, un millier d’acteurs de l’intelligence artificielle ont appelé, dans une lettre ouverte, à geler temporairement la recherche en la matière. Mais le ver est déjà dans le fruit : en rendant son logiciel accessible à tous (il suffit d’un compte sur le réseau social Discord, de quelques rudiments d’anglais et d’un abonnement de quelques dollars pour l’utiliser), Midjourney a sans doute déjà ouvert une nouvelle ère dans l’histoire du faux.
La meilleure performance de l’algorithme, à ce jour, est d’avoir trompé à l’été 2022 le jury d’un concours de beaux-arts dans le Colorado (Etats-Unis), dans la catégorie des images retouchées par ordinateur. Personne n’avait réalisé que la toile victorieuse, Théâtre d’opéra spatial, n’avait pas seulement été retouchée, mais entièrement créée par un logiciel. Six mois plus tard, une fausse photo du pape François en doudoune de luxe trompait des millions d’internautes. Combien de temps avant que des politiques, des médias ou des décideurs se fassent à leur tour berner ? Déjà, aux Etats-Unis, les partisans de Donald Trump s’approprient des images générées par IA à sa gloire.
3- Gurvan Kristanadjaja, Derrière les mastodontes de l’IA, ces petites mains victimes de «colonisation numérique» dans les pays du Sud.
https://www.liberation.fr/societe/intelligence-artificielle-dans-les-pays-du-sud-des-petites-mains-victimes-de-colonisation-numerique-20240320_YZXSKDC6QNFK7ISQ7GUXEANE3I/?redirected=1&redirected=1
Ils sont la face cachée de l’intelligence artificielle (IA) : une masse invisible de milliers de personnes qui œuvrent chaque jour autour de la planète à entraîner les technologies afin qu’elles soient plus performantes et plus précises. Derrière les bouleversements annoncés par les développements fulgurants du robot conversationnel ChatGPT, le générateur d’images Dall-E, mais aussi des services exploitant l’IA au sein de Google, Amazon, Tesla et d’autres mastodontes de la tech, on trouve des «annotateurs de données» et des «entraîneurs de l’IA» dont la tâche est fastidieuse. Ils doivent en permanence corriger les réponses formulées, affiner la connaissance des modèles sur des domaines bien précis, modérer les contenus violents générés ou encore entraîner les algorithmes des voitures autonomes à reconnaître leur environnement. Au cœur de ces innovations, il y a la reproduction d’un modèle d’organisation du travail vieux de plusieurs siècles : la connaissance et la richesse sont concentrées dans les pays du Nord, quand les tâches les plus ingrates et fastidieuses sont sous-traitées à des travailleurs précaires au Sud, comme le montrent de nombreux témoignages recueillis par Libération.
--------------------------------------------------------------------------------------------------
On peut conclure qu'à mesure que le dialogue avec l'IA se généralise et que les réponses uniques de l'IA à chaque question sont acceptées comme correctes, la pensée et les idées des gens se standardisent, deviennent uniques et la richesse essentielle de la pensée humaine est perdue : la possibilité d'évoluer à travers la controverse, de formuler de nouvelles hypothèses et de vérifier, par un examen rigoureux des faits, leur justesse ou leur fausseté.
La robotisation de la pensée humaine conformément aux intérêts des classes dirigeantes est favorisée par une méthode systématiquement employée par les médias : faire disparaître des médias des faits de la vie réelle. Un exemple. Dans les médias, les mercenaires et le groupe Wagner sont la même chose. Les autres groupes de mercenaires qui travaillent depuis des années pour les grandes puissances occidentales n'existent pas dans les medias.
Un autre exemple. A l'époque des grandes canicules, seules les personnes profitant de la fraîcheur des plages sont apparues dans les médias. Les personnes qui suffoquaient dans les villes dans des habitations non protégées ou qui travaillaient sans relâche dans des conditions climatiques insupportables (bâtiment) ont disparu des médias.
Pour approfondir le sujet:
Daniel Cohen, Homo numériques : La "civilisation" qui vient. Editions Albin Michel, 2022.
Le livre de Daniel Cohen, dresse un panorama complet de l'IA : ses aspects techniques, économiques, sociaux, neurobiologiques et politiques, avec de nombreuses citations d'experts dans différents domaines et inclut des références à des œuvres littéraires et cinématographiques qui aident à comprendre les enjeux.
Lectures complementaires:
Jacques Ellul, Le bluff technologique. Première edition,1988. Edit. Pluriel, 2017. Préface de Jean-Luc Porquet.
Pascal Picq, Les chimpanzés et le télétravail. Edit. Eyrolles, 2021
Dominique Meda, «Les outils d’intelligence artificielle peuvent désormais surveiller et analyser les performances physiques au travail».
https://www.lemonde.fr/idees/article/2023/10/21/dominique-meda-les-outils-d-intelligence-artificielle-peuvent-desormais-surveiller-et-analyser-les-performances-phys
Gemma Galdón, “La inteligencia artificial es de muy mala calidad” https://elpais.com/tecnologia/2023-12-11/gemma-galdon-auditora-de-algoritmos-la-inteligencia-artificial-es-de-muy-mala-calidad.html?event_log=oklogin
[1] Voir: https://www.radiofrance.fr/franceculture/podcasts/open-source/a-madagascar-les-travailleurs-precaires-de-l-ia-francaise-8695705; https://www.humanite.fr/social-eco/intelligence-artificielle/l-intelligence-artificielle-au-travail-au-service-du-capital-792441;ABBBcBBcueil
Philippines:les forçats de l’IA. Remotasks est une grande société américaine qui fait travailler des milliers de jeunes informaticiens philippins avec un objectif : produire les données qui vont faire tourner les algorithmes des leaders de l’intelligence artificielle. Jour et nuit, souvent dans une grande précarité, ces petites mains exécutent des millions de tâches fastidieuses pour le compte de Google, Apple, Lexus ou OpenAI.
https://www.arte.tv/fr/videos/118008-000-A/philippines-les-forcats-de-l-ia/
[2] Noam Chomsky, professeur lauréat à l'université d'Arizona et professeur émérite de linguistique au Massachusetts Institute of Technology. Il est l'un des activistes sociaux les plus reconnus au niveau international pour son enseignement et son engagement politique; Ian Roberts, professeur de linguistique au Downing College de l'université de Cambridge. Linguiste génératif, il est titulaire d'un doctorat de l'université de Californie du Sud et a enseigné aux universités de Genève, Bangor et Stuttgart; Jeffrey Watumull, directeur de l'intelligence artificielle chez Oceanit à Honolulu, Hawaï. Il a étudié les mathématiques et la biologie évolutive à l'université de Harvard et a obtenu son doctorat en intelligence artificielle au MIT