Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance.

VERSION PRE-PUBLICATION. NE PAS CITER NI TRANSFORMER, FÛT-CE A DES FINS DE VULGARISATION, SANS MON ACCORD EXPLICITE PREALABLE. 

Résumé.

Le gouvernement algorithmique est un mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s'adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu'en s’appuyant sur leurs capacités d'entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » - qu’on l’appelle « personnalisation » ou « métabolisme de sécurité » - est donc un mode de gouvernement inédit. Le type de « savoir » qui le nourrit et qu’il façonne, les modalités suivant lesquelles il affecte effectivement les conduites individuelles et collectives, les modes d’individuation qui peuvent l’infléchir ou lui résister méritent d’être très soigneusement étudiés. C'est précisément l'enjeu de la nouvelle ligne de recherche inaugurée autour du concept de gouvernementalité algorithmique, que je brosserai ici à grands traits. (*)

***

Le « tournant numérique » manifesté, depuis une dizaine d’années, par le déploiement intensif d’une multitude d’appareils électroniques fondés sur la technologie numérique, véritables prothèses cognitives, mémorielles, affectives, communicationnelles plus addictives les unes que les autres (ordinateurs, iphones, ipads, smartphones, gps, …). Nous baignons depuis lors dans une multitude de flux informationnels amniotiques-hypnotiques qui nous immergent dans l’environnement contrôlé-personnalisé de la réalité numérique et nous immunisent du monde. Ce faisant ces appareils en réseau, « nourris » de nos requêtes, envois, interactions, transcrivent le monde et ses habitants sous forme de données numériques, métabolisables par les systèmes informatiques. De cette transcription systématique, a-signifiante, décontextualisante, neutralisante, résultent des masses gigantesques de données brutes, disponibles pour une multitude d’opérations statistiques. L’idéologie accompagnant la croissance de ces « big data », est qu’à condition de disposer de quantités massives de données brutes (disponibles dans des entrepôts de données, ou datawarehouses), il deviendrait possible de prévoir, avec une relative précision, la survenue de la plupart des phénomènes (en ce compris les comportements humains), grâce à des algorithmes relativement simples permettent, sur une base purement statistique, inductive, d’inférer des profils (patterns ou modèles de comportements) sans plus avoir à se préoccuper de leurs causes.

Cette « intelligence des données » apparaît aujourd’hui comme une nouvelle stratégie de gestion de l’incertitude, suscitant l’engouement dans la plupart des secteurs d’activité et de gouvernement, en en renforçant au passage la managérialisation. Le gouvernement algorithmique est un mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s'adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu'en s’appuyant sur leurs capacités d'entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » - qu’on l’appelle « personnalisation » ou « métabolisme de sécurité » - est un mode de gouvernement inédit. Le type de « savoir » qui le nourrit et qu’il façonne, les modalités suivant lesquelles il affecte effectivement les conduites individuelles et collectives, les modes d’individuation qui peuvent l’infléchir ou lui résister méritent d’être très soigneusement étudiés. C'est précisément l'enjeu d’une nouvelle ligne de recherche tendant à circonscrire le phénomène que nous avons appellé la gouvernementalité algorithmique. 

La gouvernementalité algorithmique est explorée d'une manière qui combine quatre types d'enjeux étroitement imbriqués:

1) les enjeux sémiotiques et épistémologiques (à quel type de "savoir" donne donc lieu l'"intelligence des données"?), quelles sont les conditions de la critique face à ce type de "savoir"? Notons d’entrée de jeu que la « biométrisation du réel », sorte de « comportementalisme numérique », exige de substituer la critique sémiotique à la critique généalogique et archéologique de Foucault impossibles à mettre en oeuvre à l'égard de la gouvernementalité algorithmique qui produit un « savoir » horizontal "a-historique", et « non situé », assignant des probabilités quantitatives nonobstant l'impossibilité de situer et de comparer.

2) les enjeux de pouvoir : en quoi les "big data" modifient-ils les modes d'exercice du pouvoir ? En quoi le datamining et le profilage sont ils une nouvelle manière de gouverner? En quoi cette nouvelle manière de gouverner s’écarte-t-elle des méthodes disciplinaires ou des gouvernementalités juridico-discursives ? 

3) Les enjeux de subjectivation ou d'individuation (comment "devenir sujet" dans ce monde de données?), qui sont inséparables des enjeux de la récalcitrance et de la critique face à la rationalité algorithmique. L’hypothèse éternellement rabâchée de la "mise en danger de l'individu" ne semble pas évidente du tout en l’occurrence. On pourrait même dire que les réseaux sociaux etc. produisent, au contraire, des "hyper-sujets", que la production de subjectivité est devenue l'activité obnubilée d'un bon nombre de personnes, leur raison de vivre même. Il semble trop rapide de dire tout simplement qu'en raison des transformations en cours, parcequ'elles affaiblissent les remparts de l'intimité, de la vie privée, et parce qu'elles toucheraient peut-être aux conditions de l'autonomie et du libre choix (mais il faudrait encore voir dans quel sens cela se passe: des environnements intelligents qui nous dispenseraient de devoir en permanence faire des choix dans des domaines tout à fait triviaux peuvent aussi nous libérer l'esprit, nous rendre disponibles pour des tâches intellectuelles plus intéressantes, plus altruistes, etc. sait-on jamais... il ne s’agira donc pas de nourrir encore les technophobies sous-jaçantes aux arguments fondés sur l'érosion de l'intimité et de la vie privée ni de réveiller une fois encore le spectre de la "désubjectivation" puisqu’il n’y a de toutes façons jamais eu de "sujet" (même pour le droit, le sujet est une fiction fonctionnelle, une fonction personnologique, un peu à la manière dont Foucault décrit l'"auteur").

4) Les conditions de la critique ou l'éloge de la crise: il s'agira d'envisager de quelles manières peut encore s'envisager la critique face à une gouvernementalité se présentant comme objective et immanente au monde lui-même, fonctionnant sur une logique purement inductive (statistique) plutôt que causale ou déductive, et visant avant tout à éviter toute confrontation avec des "sujets" dont les propensions, trajectoires, préférences sont devinées d'avance et prévenues par un système de profilage "intelligent" qui connait mieux que les personnes concernées elles-mêmes ce qu'elles pourraient faire ou vouloir. 

1) Les enjeux sémiotiques et épistémologiques :

A quelle « catégorie » de signe ou de signal correspondent les données brutes, les « big data », qui forment la texture du gouvernement algorithmique, quel est leur rapport avec ce pour quoi elles sont censées « faire signe » ou dont elles sont censées donner le « signal » alors qu’elles ne ressemblent pas aux éléments du monde dont elles émanent pourtant, ne gardent avec eux aucun lien physique, et n’en sont pas non plus une symbolisation conventionnelle ? C’est pourtant ces masses de données brutes, ce corps statistique mouvant et impersonnel qui tient aujourd’hui lieu du monde que les algorithmes nous dispensent d’interpréter encore. Le « réel », ce « savoir » de ce qui  se tient ou paraît se tenir, ne semble plus tant produit que toujours déjà là, immanent aux banques de données, dans l’attente d’être mis au jour par des algorithmes de corrélations statistiques. C’est un « savoir » qui surgit non plus à propos du monde, à partir  d’un certain point-de-vue sur le monde, mais à même le monde numérisé. Un « savoir » découvert « en temps réel » par les algorithmes, inductif plutôt que déductif, un « savoir » qui n’éprouve pas le monde sur lequel il porte, et ne se laisse pas d’avantage éprouver par lui : ce n’est qu’à même une « réalité numérique » et sans plus aucun contact avec le monde qu’elle est censée représenter que se façonne la réalité algorithmique. Plutôt qu’en fonction de la validité de ses modèles « prédictifs », c’est à l’aune de son opérationnalité – et, dans une certaine mesure, de sa performativité -, de sa plasticité, de sa contribution au processus de fluidification de la vie économique et sociale (et donc au capitalisme), de sa non-robustesse donc, et de la mesure dans laquelle elle nous dispense, nous, êtres humains, de tout effort d’interprétation et d’évaluation des personnes et des événements du monde que s’évalue l’ « intelligence » des « big-data ». Telle est la rationalité algorithmique, produite à même le monde numérisé plutôt qu’à propos du monde physique.

2) En quoi les "big data" modifient-ils les modes d'exercice du pouvoir ? En quoi les nouveaux usages de la statistique que sont le datamining et le profilage sont ils une nouvelle manière de gouverner? Ce second plan - celui du pouvoir - permet de percevoir la manière dont ces glissements d'ordre sémiotique et épistémologique permettent une nouvelle manière de (se) gouverner. Le « pouvoir » semble avoir changé de « cible » : non plus les corps vivants, individuels, subjectifs, actuels, mais un corps statistique, impersonnel, virtuel, moulage générique et changeant des « risques et opportunités » détectés en temps réel, distribués sous forme de modèles de comportements (les profils de consommateur, de fraudeur ou de potentiel délinquant, d'élève prometteur,..). Perfectionnant les dispositifs de sécurité déjà théorisés par Michel Foucault, le gouvernement algorithmique est pré-emptif plutôt que prédictif : il ne s'agit pas tant d'identifier et de localiser la cause des phénomènes que d'empêcher ou d'assurer que certaines choses se produisent, en transformant anticipativement l'environnement informationnel et/ou physique de manière à ce que ces choses ne puissent pas (ne pas) se produire, et ce d'une manière indifférente à l'identité, aux intentions et motivations psychologiques des personnes potentiellement impliquées / affectées. Le gouvernement algorithmique s'intéresse à « ce que peuvent les corps », à leurs puissances, plutôt qu’à ce qu’ils font. C’est un gouvernement du virtuel, des puissances plutôt que de l’actualité. Il a pour cible non plus les sujets, mais ce qu’ils pourraient (ne pas) faire, les puissances des sujets donc. Plus précisément, il s’agit d’une nouvelle stratégie de gestion et de minimisation de l’incertitude inhérente à la puissance des sujets (leur capacité, ce pouvoir discrétionnaire de faire / ne pas faire tout ce dont ils sont capables). S’effectuant par reconfiguration des architectures et environnements informationnels et physiques dans lesquelles certains comportements deviennent impossibles / impensables plutôt que par incitation ou dissuasion, à la manière de la loi, c’est dans leur puissance (y compris la puissance de désobéir), que le gouvernement algorithmique atteint les individus, tout en évitant de produire aucune occasion de subjectivation: ce pouvoir éprouve les individus en réduisant leurs dimensions inactuelles (la dimension de la spontanéité, de la potentialité), sans mobiliser pour autant leurs capacités d'entendement et de volonté, à la différence de la loi notamment. Le gouvernement algorithmique se distingue donc notamment du gouvernement néolibéral en ce que la docilité qu’il produit n’est pas l’effet d’injonctions de productivité et/ou de jouissance mais d’affectation - sur le mode du réflex plutôt que de la réflexion- des comportements individuels et collectifs.

3) Les enjeux de subjectivation ou d'individuation (comment "devenir sujet" dans ce monde de données?), sont inséparables des enjeux de la récalcitrance et de la critique face à la rationalité algorithmique. Ce troisième plan - celui du sujet - consiste donc en une ré-élaboration de la question de l’individuation dans la gouvernementalité algorithmique.

Quel impact, sur les processus de subjectivation, d'un gouvernement algorithmique en cela "objectif" et impartial qu'il ne connaît que des fragments infra-individuels (les données) et des structures supra-individuelles (les profils) – des éléments impersonnels et anonymes, donc - , des points de localisation dans des tables actuarielles, des réseaux de données, qui ne correspondent à aucune catégorisation socialement éprouvée ?

Qu'en est-il, aussi, des processus de subjectivation dans une gouvernementalité dont l'opérationalité provient précisément, en partie du moins, du fait qu'elle dispense de la comparution, du témoignage, de l'aveu, et de toute forme de re-présentation biographique?

La gouvernementalité algorithmique signe l'aboutissement d'un processus de dissipation des conditions institutionnelles, spatiales, temporelles et langagières de la subjectivation au profit d'une régulation objective, opérationnelle, des conduites possibles.

Un gouvernement algorithmique qui façonne l’advenir, qui affecte sur le mode de l’alerte et du réflex, mais n’éprouve ni n’est éprouvé par aucun sujet a de quoi faire frémir ne fût-ce que dans la mesure où il ne se laisse plus provoquer par la liberté humaine, alors même que cette provocation constante est précisément ce qui occasionne du débat, de la délibération autour de la norme, et donc du projet collectif.

4) Enfin, quelles ont les ressources mobilisables pour une critique, une récalcitrance, et de nouveaux modes d’individuation face à la gouvernementalité algorithmique ? Plutôt que d'en revenir à des approches personologiques (dont l'individualisme possessif des régimes juridiques de protection des données est tout à fait exemplaire), qui seraient aussi inefficaces que mal fondées, il s’agira de montrer que l'enjeu fondamental - ce qu'il y aurait à sauver comme ressource antécédante à tout "sujet", comme "excès" du monde sur la réalité numérique - est le commun, cet entre, ce lieu de com-parution dans lequel nous sommes adressés les uns aux autres. Le mode d'adresse qui nous relie est essentiellement langagier. Le langage est "forme" qui est tout à la fois ligne de fuite polysémique / polyphonique, principe de liaison ("faire tenir ensemble"), projection miroitante, motifs d'advenirs évoqués. Cette "forme" (esthétique, en tant qu'elle est rapport affectif entre existants), le langage (si l'on accepte d'en libérer toutes les puissances poétiques), est à mille lieues de toute personologie. Il est la forme impersonnelle par excellence, manifestation de l'excès du monde sur le réel. Nous parlons, justement, parce que nous sommes à flanc d'abîme, parce qu'il n'y a personne – « le peuple manque », écrivait Gilles Deleuze[1] -, et donc pour rejoindre un "commun" qui se dérobe sous nos mots, qui n'est jamais acquis, qui ne se présente, n'advient que comme fulgurance inespérée, comme devenir. C'est cette forme impersonnelle du commun qu'il convient de convoquer, dans un langage qui l'énonce, dans l'impersonnalité incarnée de la voix qui la dit - impersonnelle et chargée du "grain" du corps vivant et vibrant, consistance irritable de l'ex-istant.

Ni sujet, ni monde, le commun nécessite pour surgir des scènes spatio-temporelles hétérotopiques, interruptrices des flux capitalistes et numériques – la scène du procès judiciaire (le droit processuel, plus généralement), la scène de théâtre, la scène de la littérature en sont des exemples – espaces de re-présentation existentiels, de surgissement de nouvelles possibilités politiques au lieu même de l’exposition des limites de la représentation et de la représentabilité.[2] Je parle ici des limites de la représentation par le langage, mais aussi de toute re-présentation, dans la mesure où la scène, lieu du simulacre – copie sans original -, lieu d’hyper-réalité, est une hétérotopie propice à l’émergence re-configurante de radicale nouveauté. Ainsi la spécificité de la décision juridiaire n’est pas tant qu’elle se conforme à la « réalité », qu’elle est « vraie », mais qu’elle « tranche », qu’elle est contrainte de « trancher » justement parce que la vérité est irreprésentable. C’est toujours dans une relative incertitude (épistémique ou non-épistémique[3]) que survient la décision du juge, une décision toujours hantée par le doute.

Maintenir l'hétérogénéité des modes de production de ce qui compte comme "réalité" contre le déploiement ubiquitaire d'une rationalité algorithmique opérationnelle mais neutralisante de toute signification, telle est la condition nécessaire, et peut-être pas suffisante, à l'évitement de la violence. L'enjeu est d'importance: la régression communicationnaire du langage politique privé d'énonciation utile dans le contexte d'un mode de gouvernement par les nombres, substituant une gestion systématique à la prise en compte systémique des situations de vie n'offre à la vitalité politique que des voies d'action violentes. Ce n’est pas le langage qu’il faut condamner, mais la paresse régressive de la pensée qui n’a de cesse de dévitaliser le langage, de le faire régresser en enfermant les mots dans un registre de connotations mondaines au service de l'insignifiance prédatrice. La faiblesse n'estdoncpas dans le mot, elle est dans le mépris du langage, de la polysémie, elle est dans le positivisme enfermant. Raconter pour suspendre. Nous en serions donc là : à l’aube d’un a(d)venir pré-nommé Shéhérazade.

Comment dès-lors faire usage des dispositifs de la société numérisée à des fins de ré-enchantement du commun ? En leur assignant prioritairement cette vocation là, en la protégeant par la loi, en la rendant effective par les usages. “Mettre l’homme dans la machine”, comme y invitait Félix Guattari, ce serait peut-être cela, aujourd’hui : s’atteler à produire des interstices, du jeu, dans lesquels puisse advenir du commun, c’est à dire de l’interruption des flux, de l’interstice, de l’occasion de recomposition de ce qui, pour des êtres humains, pourrait « faire consistance », fût-ce de manière transitoire - quitte à ce que ces interstices et ce jeu, permettant l’émergence d’agencements consistants, « grippent » la « machine », mettant effectivement en crise la rationalité algorithmique tout en suscitant de l’individuation impersonnelle et inter-individuelle, c’est-à-dire du projet politique et l’actualisation a priori imprévisible des puissances du commun – du projet sans prédiction, plutôt que de la prédiction sans projet, donc.

Dans l’éloge qui en sera fait ici, la crise doit être entendue dans son sens originaire. Du grec krisis, le terme crise signifie à son origine examiner, décider.[4] La crise est le moment de la décision, le moment décisif et non celui de l’indécision, de la perturbation, comme le veut l’usage ubiquitaire du terme dans l’époque contemporaine.

« (…) cette notion, en se généralisant, s’est comme vidée de l’intérieur. À l’origine, Krisis signifie décision : c’est le moment décisif, dans l’évolution d’un processus incertain, qui permet le diagnostic. Aujourd’hui, crise signifie indécision : c’est le moment où, en même temps qu’une perturbation, surgissent les incertitudes ».[5]

Eloge de la décision, donc, de la confiance décidée plutôt qu’assurée, d’un art de gouverner qui soit aussi l’art de décider en situation d’incertitude plutôt que de faire assumer celle-ci par des dispositifs numériques autistiquement objectifs. Car c’est bien d’une fausse frugalité que se parle le gouvernement algorithmique, émancipé du joug de la qualification juridique. S’en remettre aux algorithmes, plutôt que dessiner, programmer, décider en situation d’incertitude, ce n’est certainement pas « gouverner moins ». C’est même, éventuellement, « gouverner davantage » par infiltration dans tous les domaines, y compris les plus privés ou intimes, sans que le droit y trouve rien à redire. Pourtant, il pourrait être raisonnable de penser que les citoyens ont un intérêt légitime à ne pas voir des quantités substantielles d’informations à propos de leurs activités (fussent-elles volontairement partagées ou publiques) exploitées par leurs gouvernements ou par des firmes privées, quand bien même ces informations, individuellement, ne seraient pas à proprement parler des informations à caractère personnel[6].

A cet égard, il n’est pas exclu que l’on puisse faire du droit des usages plus émancipateurs que ceux qui sont aujourd’hui imaginés, au niveau européen notamment. Mais il faudrait pour cela comprendre de quelle manière le droit construit, lui aussi, un certain réel – le réel pour le droit -, à distance du monde, dans une artificialité assumée, d'une manière relativement frugale (la qualification, la prescription empêchent le droit de considérer que la totalité du monde relève de sa juridiction), essentiellement soumise à l'épreuve (de l'interprétation jurisprudentielle, de la révision législative), éternellement provisoire.

 

 

 

 


(*) Le présent texte constitue l'argumentaire fortement résumé d'un livre en cours de rédaction. Pour un aperçu plus exhaustif de mes travaux autour du concept de gouvernementalité algorithmique: http://works.bepress.com/antoinette_rouvroy/

[1] Gilles Deleuze, “Qu’est-ce que l’acte de création ?” Conférence donnée dans le cadre des mardis de la fondation Femis - 17/05/1987 ; Gilles Deleuze, « Le devenir révolutionnaire et les créations politiques », entretien réalisé par Toni Négri, Futur antérieur, 1, Printemps 1990.

 [2] Judith Butler, Antigone’s Claim. Kinship Between Life and Death, Columbia University Press, 2000.

[3] On parlera d’incertitude non-épistémique lorsque la source de l’incertitude reside moins dans l’impossibilité de connaitre parfaitement les faits que dans le caractère vague du langage juridique lui-même, dans son inevitable réductionnisme, dans son indetermination sémantique.

[4] Le terme krisis est bien sûr chargé de connotations judiciaries. Thucydide, dans l’Histoire de la Guerre du Péloponèse, est le premier à utiliser le terme, chargé de connotations judiciaries. Krisis correspond dans ce contexte au moment critique qui recquiert la decision.

[5] Edgar Morin , « Pour une crisologie », in Communications, n° 25, 1976, pp. 149-163.

[6] Lire notamment Gray, David C. and Citron, Danielle Keats, A Technology-Centered Approach to Quantitative Privacy (August 14, 2012). Available at SSRN: http://ssrn.com/abstract=2129439.

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.