Le danger du "débat" lancé par Bronner et Gehin sur les sociologies

Qu’il est dommage que le débat entre sociologues et en public sur le pluralisme des pratiques de la sociologie soit suscité par Bronner et Géhin. Car il y a nécessité de restituer un tableau pluraliste des points de vue sur le social et d'assumer cette diversité sans prétendre écraser les autres approches. A condition de ne pas se draper dans un scientisme sous prétexte de neurosciences.

Qu’il est dommage que le débat entre sociologues et en public sur le pluralisme des pratiques de la sociologie soit suscité par Bronner et Géhin. Car ce que j’en lis (l’obs, les inrocks et maintenant médiapart, mais je n’ai pas encore eu le temps de lire le livre), me laisse supposer une caricature de débat, une reprise de vieilles ficelles et un front contre front qui n’a plus grand intérêt. Comme le signale un commentaire, cela semble oublier tout un autre pan des sciences sociales, marqué par la pragmatique, voire pragmatiste, qui offre des visions plus complexes. La cible est désormais la sociologie durkheimienne ou celle de Bourdieu et ça nous change de l’époque où l’on attaquait en escadrille la sociologie de l’acteur-réseau, celle de Callon et Latour, mais c’était précisément les cibles actuelles qui accusaient cette sociologie de relativisme. Bronner et Gehin semblent, eux, rejouer une vieille bataille. Ce qu’ils apportent (apparemment), ce sont des méthodes des sciences cognitives pour rendre compte (voire expliquer) des comportements individuels. La réduction des sciences sociales aux sciences cognitives et la seconde réduction des sciences cognitives aux neurosciences est inquiétante, surtout pour son scientisme explicite et son positivisme. Les courants de sciences cognitives sont nombreux et les réductions de la cognition à l’individu puis au cerveau ont été largement critiquées (par exemple avec la cognition distribuée ou avec l’énaction de Varela). La quantification expérimentale (je l’ai pratiquée) semble justifier la scientificité de tout l’argument, mais la prétention explicative générale qui s’en dégage pose aussi problème. Donc trois problèmes au moins qui sont confondus dans une charge à vocation de buzz plus que de discussion scientifique semble-t-il : celui des capacités des individus dans la coordination des activités sociales, celui de la réduction des individus en question à leur cerveau, et celui de la quantification expérimentale qui vaudrait mieux que tout autre méthode.

Je ne reviendrai pas sur le second point, qui demanderait un retour très technique sur les théories de l’esprit et qui sort du champ habituel de compétences des sciences sociales. Notons cependant que des courants d’anthropologie cognitive, de pragmatique ou l’ethnométhodologie auraient des choses à dire aussi sur le sujet.

Sur le premier point, quasiment personne ne nie cette capacité des individus à donner sens à l’espace social et à prendre des décisions. Cependant, il est très aisé de montrer que ce sont des moments particuliers de la vie sociale et de l’expérience individuelle, alors qu’une grande partie de nos comportements relèvent soit de la reproduction soit de l’imitation. Mais ces moments d’acteurs stratégiques, rationnels et calculateurs, qui prennent des décisions, existent (avec toutes les limites de la rationalité de ces décisions, comme l’avait déjà montré H. Simon, sans neurosciences). On peut très bien adopter ce point de vue pour étudier des moments et ces compétences d’arbitrage, sans pour autant en faire le principe de toute l’explication du monde. Ce point de vue, car il n’existe que DES points de vue, repose sur une attribution de pouvoir d’agir (ou d’agency) à des « préférences individuelles », et les économistes néo-classiques passent leur temps à l’étudier en relation avec une théorie des utilités qui ordonne toute leur vision de la coordination par le marché. Et la même chose se retrouve dans les études d’opinion où l’on demande de déclarer des préférences que l’on agrège ensuite.

Tout cela ne disqualifie en rien une approche par les déterminations sociales de plus longue amplitude, qui peuvent même aller jusqu’à la très longue durée des démographes. L’agency est alors attribuée à ces structures, à cet héritage, que les sociologues ont régulièrement analysés et qui font d’ailleurs sens désormais pour les acteurs eux-mêmes, ce sens des places, que chacun hérite aussi et qu’il est bien difficile de subvertir ou de dépasser. Il est possible de refuser là aussi une toute-puissance à ces « explications » qui ne permettent plus de comprendre le changement social lorsqu’elles sont mises en œuvre de façon mécaniste. Mais la plupart des travaux savent les limites de validité de tout point de vue scientifique, qui donc sélectionne et découpe dans la complexité du réel. Si Bronner et Géhin voulaient critiquer cette tendance à l’écrasement des autres points de vue sur le social, ils auraient eu raison, mais il aurait fallu pour cela ne pas procéder de la même façon avec leur point de vue. Et ils auraient dû rendre compte de toutes les méthodes qui ont permis aux sociologues des structures de prendre en considération l’incorporation de ces déterminations dans des individus, dans des corps même, dans des catégories de pensée, etc. toutes choses que Durkheim (avec les représentations), Bourdieu (avec l’habitus) ou la pragmatique (avec Boltanski et Thévenot) ont sans cesse tenté de réaliser, avec plus ou moins de réussite, il faut en convenir. S’il manque des maillons dans la chaine des médiations qu’il faudrait faire tenir, il vaut mieux y contribuer plutôt que de nier a priori toute agency, tout pouvoir d’agir à ces structures, à ces héritages.

Mais il existe encore un troisième point de vue, qui n’a semble-t-il plus part au débat schématique et vieillot lancé par Bronner et Gehin : celui de la théorie de l’acteur-réseau, celui de Tarde, qui a pourtant gagné de la visibilité depuis trente ans, pour sortir de ce face à face fictif entre Durkheim et Weber. Lorsque Callon Latour et Law ont introduit les objets, la nature, les non-humains dans le tableau, cela a pourtant fait l’effet d’un chien dans un jeu de quilles. Leur souci était bien de redistribuer l’agency à d’autres entités, que les seules structures ou préférences individuelles : la matérialité de notre existence sociale et sa « naturalité » pouvait avoir un effet non négligeable dans la coordination de certains moments de la vie sociale. Les moments d’innovation, d’émergence, de controverses, de mouvements de foule, de propagation rapide, etc. ne pouvaient pas être « expliqués » par l’effet de structures, ni par les décisions éclairées d’individus influents. Ce qui agit dans ce cas-là, ce sont des entités qui circulent, comme des idées (qui nous traversent, disait Tarde), des mèmes, ou des objets qui affectent nos comportements. Certes, là aussi, lorsqu’on a voulu écraser toutes les autres approches pour bâtir un modèle des petites différences qui expliqueraient tout, la démonstration a tourné court, puisqu’il était impossible méthodologiquement de restituer toutes ces petites médiations qui finissent toujours par être naturalisées, encapsulées et agir comme éléments de structures ou de décisions. Je considère que la traçabilité permise par le numérique permet de regagner de la visibilité pour ce point de vue particulier, ce que j’ai appelé une science sociale de troisième génération (voir le blog sur ces travaux, SHS3G), qui aurait le souci de donner toute leur place aux deux autres générations qui sont en fait des points de vue, des distributions différentes et a priori d’agency, nécessaires pour analyser (découper) le monde vécu.

Le troisième argument sur la quantification constitue un cache-sexe scientiste trop aisé à manipuler. Les sciences sociales des structures ont toujours manipulé des données, comme l’ont fait les sciences sociales basées sur des préférences individuelles. Ce n’est pas l’imagerie médicale qui va changer ce régime de scientificité car les images sont … des images, tout autant qu’un tableau croisé, une analyse en composante principale ou un graphe. La même vigilance sur leurs principes de construction et leurs limites de validité s’y appliquent. Mais Desrosières avait montré comment les recensements ont été à la fois un appui au gouvernement et un dispositif de preuve pour les sciences sociales, de même que Osborne ou Blondiaux ont montré comment les préférences individuelles avaient pu exister (sous forme d’opinion notamment) grâce aux sondages. Car les dispositifs de quantification sont en effet porteurs de ces points de vue sur le social et leur ont permis d’exister. Le mouvement qui voudrait s’appuyer sur les neurosciences pour tout expliquer est voué à l’échec mais il fera sans aucun doute émerger certaines entités et plus probablement viendra renforcer l’approche par les choix et les préférences individuelles.

Cependant, cela n’a pas grand rapport avec le Big Data, contrairement à ce que dit J Confavreux. Car l’un des éléments nouveaux des traces numériques, c’est leur vélocité, c’est-à-dire leur caractère de flux permanent et de traçabilité à grain fin. C’est cela qui permet précisément de renforcer l’approche par les entités circulantes, par l’agency des non-humains (du climat aux messages en passant par les objets techniques). Mais un autre élément clé tient au fait que les traces en question ne sont plus équivalentes aux données des états et de leurs recensements, ni à celles des sondages et de leurs instituts, car elles sont produites par les plates-formes d’internet, dites GAFA, en grande partie. Les ordres de grandeurs sont sans commune mesure avec les recensements ou avec les sondages, et les algorithmes du machine learning reposent précisément sur ce volume pour apprendre avec de nouveaux cas. Or, cela constitue une vision radicalement nouvelle du traitement des données et de « l’explication » à laquelle on substitue la prédiction sous condition de probabilités.

Franchement, rejouer le match Bourdieu/ Boudon n’a pas grand intérêt face à ce type de bouleversement. Prétendre retrouver une source de données indiscutable (celles des neurosciences) ne fait pas le poids face aux capacités du machine learning d’exploiter tout type de données. Et se servir de ce prétexte d’une discussion scientifique pour enfourcher encore un peu plus les stéréotypes du discours néo-libéral est plutôt pitoyable.

Cela plaide cependant pour la reconstitution d’un tableau pluraliste des sciences sociales où la distribution des agencies est assumée et les méthodes adoptées cohérentes avec ces choix. J’y travaille de ce pas ! ( et je vais devoir lire le livre avec celui de Karsenti et Lemieux d'ailleurs).

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.