Les affaires sont les affaires et rien ne les arrête quand elles sont florissantes. Depuis plus de deux ans, le business de l’intelligence artificielle générative est en plein boom. La demande est là. Mondiale. Vertigineuse. Les mécanismes d’influence sur les réseaux sociaux sont à l’œuvre pour imposer le narratif d’une intelligence artificielle devenue incontournable. « Savoir prompter ou périr », tel le nouveau mantra collectif qui habite l’esprit de ceux qui se projettent dans un futur où les technologies numériques seraient devenues incontournables. Sans trop de surprise, ce narratif est relayé dans la sphère éducative, poussé par les acteurs privés du numérique éducatif qui voient là une belle opportunité pour développer un marché déjà très prospère. Cet engouement de façade ne fait pourtant pas l’unanimité, loin de là. Les arguments commerciaux, séduisants au premier abord, sont largement réfutés par les membres de la communauté scientifique, devenus lanceurs d’alerte. Leurs mises en garde commencent à porter. Face aux multiples dangers de l’IA générative, en attendant la mise en place d’un cadre réglementaire protecteur, des citoyens commencent à se déclarer objecteurs de conscience.
Hégémonie des géants de la Tech
Il n’a y pas une intelligence artificielle mais des milliers pour des centaines de fonctionnalités. De même, toutes les intelligences artificielles ne sont pas génératives et toutes les intelligences artificielles ne sont pas les produits des géants américains ou chinois de la tech. Cependant, si on raisonne en parts de marché, ce sont bien ces géants de la tech qui contrôlent, à quelques-uns, le modèle numérique de l’intelligence artificielle. Dans le magma des IA en gestation, seules quelques-unes ont pu s’imposer au niveau mondial. Ce modèle numérique, similaire à celui des réseaux sociaux, est celui de l’influence. Il s’agit de capter l’attention des utilisateurs, d’aspirer leurs données avec leur consentement tacite et de les utiliser afin d’exercer de l’influence commerciale et sociétale. Dans ce monde très concurrentiel, les IA les plus attractives sont celles qui génèrent le plus de profits liés à l’influence par utilisation des données. Car l’IA est avant tout une idéologie, une façon de voir le monde en réduisant les rapports sociaux à des actes de consommation permettant d’apporter le bien-être. Dans cet univers d’optimisation généralisée, l’IA générative apporte du confort aux consommateurs comme aux salariés, avec la promesse - pour ceux qui savent rédiger correctement les prompts - d’éviter les démarches fastidieuses de la réflexion et de la conception en les excécutant à leur place.
Des alertes répétées
Les géants de la tech dépensent sans compter pour créer de nouveaux centres de données, toujours plus énergivores, toujours plus consommateurs en eau. Nul ne peut ignorer que l’IA est une bombe environnementale à la trajectoire de développement insoutenable, dont les effets se font déjà sentir sur les territoires où les populations sont déjà victimes des conflits d’usage des ressources hydriques ou énergétiques. Nul ne peut ignorer les effets sur l’emploi dans de nombreux secteurs d’activité jusque là épargnés par les licenciements liés à la mécanisation des emplois. Nul ne peut ignorer les menaces liées à la généralisation des moyens de surveillance de masse, portés par des opérateurs privés, ainsi que les menaces liées aux possibilités d’influence et de manipulation à grande échelle mettant en danger les démocraties. Nul ne peut ignorer les menaces liées à la concentration du pouvoir économique entre les mains d’un petit nombre d’acteurs qui manifestent ouvertement leur volonté de contrôler les ressources mondiales et d’imposer un modèle commercial technologique hégémonique. Nul ne peut ignorer les menaces liées à la paresse d’esprit et à la perte de sens critique dans un monde où les individus, devenus addicts à l’intelligence artificielle, ont perdu leur capacité de pensée par eux-mêmes et leur capacité de concevoir ensemble selon les procédés de l’intelligence collective qui, jusque-là, ont toujours été le moteur du développement de l’humanité.
Face à la folie collective dans laquelle est en train de sombrer une partie de l’humanité, les alertes sont croissantes. Elles proviennent de différents acteurs de tous horizons qui ont tendance à se fédérer. Les dernières alertes en date sont les plus retentissantes. Ainsi, le 22 septembre dernier, de nombreuses sommités de la communauté scientifique mondiale lançaient un appel à établir des lignes rouges pour l’IA. Cet appel, relayé par un nombre impressionnant d’acteurs de la société civile mondiale précise : « L’intelligence artificielle (IA) recèle un potentiel immense pour le progrès humain, mais sa trajectoire actuelle présente des dangers sans précédent. L’IA pourrait bientôt dépasser de loin les capacités humaines et exacerber des risques tels que le développement de pandémies artificielles, la manipulation des individus, y compris des enfants, la désinformation à grande échelle, les menaces pour la sécurité nationale et internationale, le chômage de masse et les violations systématiques des droits humains. Certains systèmes d’IA avancés ont déjà manifesté des comportements trompeurs et nuisibles. Or, ces systèmes se voient accorder une autonomie croissante pour agir et prendre des décisions dans le monde réel. De nombreux experts, y compris ceux à la pointe du domaine, préviennent que si rien n'est fait, il deviendra de plus en plus difficile d'exercer un contrôle humain significatif dans les années à venir. […] Nous exhortons les gouvernements à parvenir à un accord politique international sur des lignes rouges pour l’IA, en veillant à ce qu’elles soient opérationnelles, avec des mécanismes d’application robustes, d’ici la fin de l’année 2026. »
Le 24 novembre, c’est l’Organisation Mondiale des Nations Unies (ONU) qui sonne l’alarme lors de l’ouverture du 14ème Forum des Nations Unies sur les entreprises et les droits de l’homme. L’alerte de l’ONU indique : « Les menaces de l’intelligence artificielle générative qui pèsent sur plusieurs droits humains, notamment la vie privée, la participation politique, la liberté d’expression et le travail, sont évidentes et bien réelles. Si l’IA est extrêmement prometteuse, son exploitation à des fins purement politiques ou économiques peut manipuler, déformer et détourner l’attention. Sans garanties et réglementations appropriées, les systèmes d’IA ont le potentiel de se transformer en un monstre de Frankenstein des temps modernes. […] Les menaces actuelles pourraient se concrétiser sous forme de préjudices qui compromettraient les promesses des technologies émergentes et pourraient avoir des conséquences imprévisibles. »
De façon plus pragmatique, les milieux économiques alertent depuis le mois d’octobre sur le risque d’explosion d’une bulle spéculative. Si l’IA draine actuellement les capitaux, permettant ainsi l'essor vertigineux du traitement des données qu’elle nécessite, les revenus sur investissement ne sont pas encore au rendez-vous et certains voient un risque réel de krach financier mondial qui marquerait l’arrêt temporaire du développement de cette technologie, à l’image de l’explosion des bulles financières qui ont ralenti le développement du chemin de fer au XIXème siècle ou le boom immobilier plus récemment.
Éthique contre éthique
En attendant un hypothétique krach boursier ou un éventuel interventionnisme politique en faveur d’un cadre réglementaire attestant une volonté de régulation, les géants de la tech et leurs adeptes ne restent pas inactifs. L’intense activité de lobbying a permis de produire une abondante littérature définissant un « cadre éthique » à l’utilisation de l’intelligence artificielle. La manœuvre est habile. Les lobbyistes sont rodés pour ce type de démarche : produire un discours qui vient contrecarrer celui des scientifiques. On retrouve là une opposition classique entre le monde des affaires, conduit par des industriels soucieux de maintenir leurs chiffres d’affaires, et celui de la recherche universitaire, soucieuse de montrer au grand jour les effets parfois nocifs de l’activité économique sur la planète, sur le vivant et sur les consommateurs eux-mêmes. Pour les lobbyistes, convoquer le registre de l’éthique permet de contourner le champ de la rigueur scientifique pour se concentrer sur celui des valeurs. Si elle devient éthiquement acceptable, l’IA n’a plus à être interrogée sur les effets qu’elle produit. Cependant, pour justifier leur discours, les lobbyistes s’appuient sur une forme de déontologie kantienne : le principe moral qui pose comme règle d’or de traiter les autres comme on voudrait être traité. Cet impératif catégorique se heurte à l’éthique de la durabilité qui suppose de prendre en compte des interactions complexes qui portent leurs effets sur le temps long. Aussi la caution éthique de l’IA, reposant sur une logique de respect entre les individus, est largement biaisée car les actions humaines génèrent des conséquences qui portent bien au-delà de la simple sphère des relations interpersonnelles et produisent des effets bien au-delà du temps présent. Lever ces biais supposerait de s’ouvrir au principe de responsabilité posé par Jonas : « Agis de telle façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur Terre. » La logique est conséquentialiste : il s’agit d’envisager, a priori, les effets de l’utilisation de l’IA afin de répondre des éventuels dommages qu’elle pourrait causer dans le temps, de façon directe ou indirecte. Cette logique est celle des scientifiques. Elle amène à la prise de conscience et pousse à la responsabilisation individuelle et collective.
Objection de conscience
C’est parce que leur éthique est celle de la durabilité, parce que leur logique est intrinsèquement conséquentialiste, que de nombreuses personnes déclarent un refus catégorique d’utiliser l’IA générative tant qu’un cadre réglementaire n’a pas posé les garde-fous légitimes, tant que l’IA demeure le fait de quelques opérateurs privés devenus hors de contrôle, en imposant leurs règles aux citoyens et en étouffant les velléités de régulation avant même qu’elles ne commencent à prendre corps. Ces objecteurs de conscience s’affirment de plus en plus face à ceux qu’ils considèrent comme étant sous l’emprise du narratif des géants de la tech. Dernière initiative en date, celle de l’Atelier d’Écologie Politique de Toulouse qui vient de produire un manifeste d'objection de conscience face à l'IA générative dans l'enseignement supérieur et l'éducation nationale. Ce manifeste précise : « L’objection de conscience désigne le refus individuel, mais aussi collectif en tant qu’il est publiquement partagé, de prendre part à une activité que l’on perçoit comme incompatible avec des valeurs fondamentales. Dans le cas présent, nous considérons que le déploiement de l’IA générative dans les institutions de l’enseignement supérieur et de la recherche et de l’éducation nationale est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser. » Face aux dangers de l’IA, ce manifeste est aussi un appel. Chaque acteur de l’éducation, chaque acteur de l’enseignement supérieur et de la recherche peut se déclarer objecteur de conscience en rejoignant les nombreux signataires de l’appel et déclarer ainsi publiquement son refus de participer à des activités contraires à son éthique personnelle.