Thomas Delclite (avatar)

Thomas Delclite

Méthodologue statisticien, enseignant vacataire

Abonné·e de Mediapart

14 Billets

0 Édition

Billet de blog 6 juin 2025

Thomas Delclite (avatar)

Thomas Delclite

Méthodologue statisticien, enseignant vacataire

Abonné·e de Mediapart

Un seul chiffre pour résumer la pauvreté ?

« 1000 personnes pensent que… » Cette phrase, avec sa variante « un sondage affirme que... », est une réduction d'une réalité souvent complexe. Elle aplatit 1000 situations personnelles en un chiffre unique. Et lorsqu'elle devient un pourcentage, elle prend le risque de n’être plus que cela : 11,5 %. Par exemple, 11,5% des belges sont en situation de risque de pauvreté monétaire. Est-ce souhaitable ?

Thomas Delclite (avatar)

Thomas Delclite

Méthodologue statisticien, enseignant vacataire

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

« 1000 personnes pensent que… » Cette phrase, avec sa variante « un sondage affirme que... », est une réduction d'une réalité souvent complexe. Elle aplatit 1000 situations personnelles en un chiffre unique — une moyenne, une médiane, un pourcentage. Et lorsqu'elle devient un pourcentage, elle prend le risque de n’être plus que cela : 11,5 %. Un seul chiffre. Qui résume, qui incarne, qui devient un individu qui n’existe pas. Personne ne pense "à 11,5 %", mais 11,5 % pensent que… Et ce n’est pas fini. Car ce chiffre glisse ensuite dans les titres des journaux, les bandeaux des émissions ou un fil Bluesky. Il se transforme en norme. 11,5 %, c’est moins que 50 %, donc "une minorité pense que…", ou pire : "les gens ne sont pas concernés par…". Peu importe sa source, son échantillon, ses biais. Il est là. Facile à retenir. Prêt à être utilisé.

Aujourd’hui, j’ai envie de me demander si cette situation est souhaitable, pourquoi elle existe, et comment s’en défaire — si tant est que ce soit possible. Pour cela, je vais volontairement m’écarter des sondages d’opinion, notamment ceux sur les intentions de vote. Le sujet a déjà été largement abordé ici, et les critiques que l’on peut leur adresser sont nombreuses ; elles risqueraient surtout de brouiller la discussion du jour. Non, cette fois, je veux m’appuyer sur des statistiques publiques, et en particulier sur celles qui concernent la pauvreté et l’exclusion sociale. Et, pardon lecteur·rices français·es, je m’appuierai principalement sur des données belges.

Chaque année, un chiffre revient dans les publications officielles, les communiqués de presse et les articles de journaux : le taux de pauvreté. En Belgique, il s’élève à 11,5 % en 2024. Ce chiffre unique, synthétique, est devenu le référent pour parler de précarité et d’inégalités sociales. Mais que raconte-t-il vraiment ? Peut-on résumer toute la complexité d’une situation sociale à une seule valeur ? Et surtout : quels choix méthodologiques se cachent derrière ce chiffre ?


Encadré : L’enquête SILC en quelques mots

L’enquête SILC (Statistics on Income and Living Conditions) est réalisée chaque année dans les pays européens pour mesurer les conditions de vie, les revenus et la pauvreté des ménages. Coordonnée par Eurostat et harmonisée entre pays, elle est mise en œuvre de manière nationale : en Belgique par Statbel, en France par l’Insee. Elle permet de produire plusieurs indicateurs clés, notamment le seuil et le taux de pauvreté monétaire, la privation matérielle et sociale, ou encore la pauvreté persistante.


Partons de l’hypothèse que l’on dispose des revenus de tous les Belges. Mettons de côté, pour une fois, le fait que ces données proviennent en réalité d’un sondage, et faisons comme si l’extrapolation était parfaitement fiable. À partir de ces revenus, on peut calculer leur distribution : autrement dit, pour chaque niveau de revenu possible, la proportion de la population qui le perçoit. Par exemple, pour la Belgique en 2022, on dispose de trois distributions distinctes, une par région. L'IWEPS (institut wallon de l’évaluation, de la prospective et de la statistique) propose dans une récente analyse une distribution de ces revenus par région. Ces courbes sont complexes, marquées par des sursauts, des vagues, des particularités.

Illustration 1
Distribution du revenu annel équivalent net par région, source IWEPS

Cette distribution, nous la voyons rarement dans les publications. Tout cela devient, le plus souvent, un revenu médian au niveau national. Un seul chiffre, défini de façon à ce que la moitié des Belges gagne plus, l’autre moins. Un seul chiffre, donc, pour résumer toute la diversité et la complexité des revenus. Et en prenant 60 % de cette médiane, on obtient le seuil de pauvreté. Pourquoi 60 % ? Il s’agit d’une convention définie au niveau européen (j’y reviendrai plus tard). Mais quel que soit le pourcentage choisi, on reste face à un seuil unique, censé résumer toute une distribution.

Illustration 2
Extrait de presse sur la pauvreté en Belgique

Ce seuil de pauvreté apparaît souvent dans les publications, mais il subit encore une ultime réduction. En effet, il sert à calculer la proportion de personnes situées en dessous de ce seuil : c’est ce qu’on appelle le taux de pauvreté. Environ 11,5 % des Belges étaient en situation de risque de pauvreté monétaire en 2024. C’est cela que je désigne, dans ce billet, comme une forme de réductionnisme : partir d’une distribution complète pour aboutir à un seul chiffre.

Est-ce mal ? Peut-on faire autrement ? Et à qui la faute ?

Présenté ainsi, on pourrait croire à une critique sévère de cette approche. Il n’en est rien. Au contraire, je voudrais, dans la suite de ce billet, revenir sur les raisons qui justifient selon moi cette manière de faire, ses écueils, mais aussi ses avantages. L’idée m’est venue à la lecture du livre Stat Wars, de Hervé Guyon, qui interroge justement le réductionnisme des indicateurs. Pour structurer mes réflexions, je vais partir de quelques réactions que j’entends ou lis régulièrement.

Le seuil, le taux, les calculs sont arbitraires

Oui.

Bon, développons un peu. Pour le seul taux de pauvreté, on enchaîne en réalité un nombre non négligeable de choix méthodologiques, chacun portant une part d’arbitraire (plus d’infos ici) :

  • le choix de la source des revenus (déclaratif ? administratif ? net ou brut ?) ;
  • le choix de mesurer la pauvreté au niveau du ménage et non de ses membres pris individuellement ;
  • le choix des coefficients d’équivalence pour calculer une taille de ménage "équivalente" et rendre les revenus comparables entre structures familiales différentes ;
  • le choix du seuil de pauvreté, fixé à 60 % de la médiane des revenus équivalents.

Il serait tout à fait possible d’utiliser d’autres métriques, d’autres taux, d’autres seuils. Et d’ailleurs, cela se fait. Par exemple, Statbel calcule également le taux de pauvreté en utilisant un seuil fixé à 50 % ou 70 % de la médiane, en plus du seuil conventionnel de 60 %. Concernant les échelles d’équivalence pour ajuster les revenus à la taille du ménage, Henri Martin propose une réflexion approfondie dans un papier très intéressant publié par l’Insee. Sur le choix des revenus pris en compte, Aurélie Leroy propose quant à elle une critique intéressante des décisions méthodologiques retenues dans l’enquête SILC.

Le problème, c’est que sans ces choix (certes partiellement arbitraires) il n’y aurait tout simplement pas de mesure, pas de résultat. On en resterait à un tableau brut de revenus individuels. Mais ces choix biaisent-ils pour autant radicalement le constat final ? Est-ce que le fameux chiffre (11,5 % de Belges en risque de pauvreté monétaire) serait totalement différent avec d’autres paramètres ?

C’est là qu’interviennent les analyses de sensibilité. Les instituts de statistiques publient régulièrement, dans leurs rapports annuels ou dans des études ponctuelles, des variantes selon les paramètres choisis. L’objectif, pour citer Henri Martin, est de vérifier si « les résultats obtenus sont robustes au choix d’une échelle plutôt qu’une autre, dans l’ensemble de l’ordre des possibles. »

Autrement dit : si les résultats ne changent pas fondamentalement, ou s’ils évoluent dans le même sens quels que soient les paramètres retenus, alors il y a peu de risque que la réalité décrite soit déformée par ces choix méthodologiques.

Ce n'est qu'une moyenne, une proportion, une médiane

Oui.

Réduire une distribution entière à un taux de pauvreté, ce n’est pas seulement céder à la simplicité médiatique (même si, reconnaissons-le, cela aide). C’est aussi une contrainte de la théorie statistique : elle ne permet d’estimer avec précision qu’un seul chiffre à la fois — une moyenne, un total, une proportion, un ratio. Pas une constellation d’indicateurs, et encore moins une distribution complète.

C’est là toute la limite : la théorie garantit la précision d’un nombre, pas la complexité d’un phénomène. Par exemple, pour la distribution des revenus publiée par l’IWEPS, il n’est pas possible de fournir un intervalle de confiance sur l’ensemble de la courbe, seulement sur quelques points isolés.

Aparté : je découvre, en écrivant ce billet, qu’il existe des techniques permettant d’estimer la précision d’une distribution complète, notamment en évaluant la variance de certains points de la fonction de densité. C’est assez technique, gourmand en calculs, et, à bien y réfléchir, très peu utilisé dans les publications statistiques courantes. Je resterai donc ici sur l’idée selon laquelle la précision statistique porte sur un seul point à la fois, tout en reconnaissant qu’il existe des exceptions.

Or, la statistique publique, surtout lorsqu’elle repose sur des techniques de sondage pour la collecte d’informations, dépend entièrement de l’extrapolation et de sa fiabilité. Comme je le rappelle souvent sur ce blog : savoir que “1000 personnes pensent que…” ne suffit pas pour conclure que “les Belges” ou “les Français·es pensent que…”.

Ce réductionnisme a ici une raison d’être : il permet de mobiliser les outils statistiques de la théorie des sondages, afin d’obtenir des indicateurs précis et exploitables. C’est pourquoi l’analyse se focalise sur chaque indicateur séparément. C’est une nécessité technique, avant d’être un choix éditorial.

Du coup, tout est relatif, et on peut tout dire ?

Non.

Il n’est pas possible d’obtenir n’importe quel chiffre simplement en bricolant les choix méthodologiques. L’argument selon lequel “on peut faire dire ce qu’on veut aux chiffres” est un classique pour discréditer des résultats statistiques. Mais il ne tient pas.

En réalité, les données, ainsi que les indicateurs comme la moyenne, la médiane ou les quantiles, sont généralement assez stables, donc peu sensibles à une variation raisonnable des traitements méthodologiques. Il faut adopter des hypothèses très fortes (et donc facilement contestables) pour provoquer un changement significatif dans les résultats. Du moins, et c’était tout l’enjeu de mon point précédent, il est essentiel de le vérifier. C’est même un gage de qualité pour une enquête : les résultats doivent rester cohérents dans un ensemble d’hypothèses plausibles et réalistes.

Par contre, il reste tout à fait possible de choisir le résultat qui nous arrange dans une enquête, ou d’en proposer une interprétation qui colle parfaitement à notre vision de la société. Mais dans ce cas, ce n’est pas le chiffre en lui-même qu’il faut remettre en cause : c’est la mauvaise foi, ou alors le cadre théorique dans lequel il est utilisé.

S'il est possible d'avoir autant de chiffres différents, lequel est "le vrai" ?

J’ai déjà abordé la question de la “vérité” des résultats statistiques dans un précédent billet. Dans cette même logique de relativité partielle, on peut légitimement se demander : comment utiliser des chiffres qui intègrent autant de choix méthodologiques en amont ? Reprenons notre exemple : 11,5 % des Belges étaient à risque de pauvreté monétaire en 2024. Que faire de ce chiffre, s’il comporte une part d’arbitraire ? Peut-on s’y fier ? Peut-on l’utiliser pour guider des décisions politiques ou nourrir un débat public éclairé ?

Les enquêtes permettent surtout des comparaisons, et c’est là que le chiffre global prend tout son sens. Selon les âges, les régions, les profils socio-économiques, on peut calculer le même indicateur, avec les mêmes outils statistiques, et ainsi comparer les résultats de manière rigoureuse. C’est dans ce cadre que l’intervalle de confiance prend, à mon sens, toute son importance : il permet d’évaluer si la différence observée entre deux groupes est statistiquement significative, autrement dit si cette différence est difficilement attribuable au hasard. L’enjeu n’est donc pas uniquement de produire un chiffre, mais de comparer des réalités sociales.

La comparaison d’année en année repose sur la même logique. Si certains biais de sélection existent dans une enquête, ils ont souvent tendance à se reproduire d’une édition à l’autre. Cela signifie que, lorsqu’on s’intéresse à l’évolution d’un indicateur dans le temps, ces biais peuvent en partie s’annuler. L’objectif n’est alors plus de capturer une réalité absolue, mais de mesurer une tendance, un mouvement, une dynamique, ce que les statistiques font souvent très bien, même si les niveaux eux-mêmes doivent être interprétés avec prudence.

Illustration 3
Multidimensionnalité de la pauvreté, Source Statbel

Mais pour revenir au cœur de la thématique de ce billet : la pauvreté, ce n’est pas qu’un revenu insuffisant. C’est aussi de l’instabilité, de l’isolement, de la privation matérielle. D’autres indicateurs existent pour en rendre compte : intensité du travail, taux de privation, pauvreté subjective, entre autres. La comparaison ne devrait pas se limiter à une seule mesure : elle gagne en richesse lorsqu’on lit ces indicateurs ensemble, dans une perspective complémentaire, et non concurrente.

Ne faut-il rien remettre en cause dans les choix méthodologiques ?

Si, tout le temps !

Les instituts de statistiques ont besoin de stabilité méthodologique pour produire des indicateurs comparables dans le temps, utiles aux décideurs publics comme aux chercheurs. Mais cela ne veut pas dire que ces méthodes sont neutres ou définitives. Elles comportent des biais, des choix implicites, des angles morts, et méritent donc d’être débattues.

Ne serait-ce que pour prendre conscience des limites d’un indicateur (et donc penser à en mobiliser d’autres selon le sujet), ou, parfois, pour interpeller Eurostat ou les instituts nationaux de statistiques afin de faire évoluer les approches.

Par exemple, l’Institut pour l’égalité des femmes et des hommes en Belgique a publié un rapport remettant en cause le calcul de la pauvreté au niveau du ménage, en soulignant l’intérêt d’introduire la notion de dépendance financière entre les membres du foyer. Ce changement de perspective vise à mieux capter les situations où une personne, bien que vivant dans un ménage "non pauvre", se retrouve sans autonomie financière réelle. Statbel a repris ce calcul en 2019, pour réévaluer la situation dix ans plus tard.

Conclusion : réduire et résumer

Bref, si les enquêtes produisent des chiffres, des indicateurs, qui peuvent parfois paraître froids ou désincarnés, ils permettent, pris ensemble, de brosser une situation sociale. Couplés à des études de terrain, à une connaissance du terrain ou à un pouvoir politique volontaire, ils ne servent pas seulement à constater, mais aussi à agir.

Parce qu’au fond, si “1000 personnes pensent que…” ne nous informe pas toujours, cela peut être un point d’entrée. Un premier signal pour identifier des inégalités, et surtout pour tenter de les corriger. Des inégalités que la médiane, à elle seule, ne saura jamais raconter.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.