Entropie, drôle de nom pour une drôle de théorie

Un seul mot qui évoque... autre chose, et qui de plus désigne à lui seul une perte d'énergie, un désordre et un travail spéculatif, est-ce bien raisonnable ?

Clausius a inventé le terme "entropie" en 1865 pour mesurer la perte de chaleur d'un système thermodynamique. Il a voulu ce mot proche du terme énergie et du terme grec de transformation.

C'est là déjà trompeur d'associer la transformation de l'énergie et la perte de chaleur. Une perte de chaleur est une transformation d'énergie, mais toute transformation d'énergie n'est pas une perte de chaleur.

Ensuite, par sa sonorité, entropie fait écho à tropisme et suggère intuitivement une orientation de croissance vers l'intérieur (l'intuition sait métisser sans effort nom grec et préfixe latin, en-tropisme). Cela pourrait alors évoquer l'équilibre thermodynamique vers lequel tout système isolé finit par tendre inéluctablement. L'équilibre thermique, mécanique et chimique étant un état dans lequel la statistique globale du système est invariante dans le temps. C'est une évolution vers la stabilité. Et Ludwig Boltzmann a établi en 1870 que "l'équilibre thermodynamique d'un système isolé est atteint lorsque l'entropie est maximale".

A cette première approche de thermodynamique au niveau macroscopique, s'est ajoutée une deuxième approche. L'entropie a alors été considérée comme la mesure du degré de désordre d'un système au niveau microscopique : plus l'entropie du système est élevée, moins ses éléments sont ordonnés, moins ils sont liés entre eux et capables de produire des effets mécaniques. Et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail, c'est-à-dire l'énergie libérée de façon incohérente. Et le désordre étant une combinaison statistique plus probable que l'ordre, il existerait ainsi, toutes choses égales par ailleurs, une évolution inéluctable vers le désordre. Donc vers une entropie maximale.

Ainsi, au niveau macroscopique, comme au niveau microscopique, la tendance naturelle est à l'entropie maximale. Mais dans le premier cas on atteint l'équilibre quand dans le second on augmente le chaos. Comment ne pas être confus sur cette entropie ?

Ou alors, le chaos est un équilibre ?

La question sous-jacente porte sur le jugement de valeur "désordre" qui est propre à la statistique : peut-il avoir sa place en physique ? Dès lors qu'une loi opère, le hasard n'existe pas. Benoît Mandelbrot observait que la rugosité occupe la plus grande partie du monde, mais que "la mer infinie de la complexité comprend deux îlots de simplicité : l'un est de simplicité euclidienne, l'autre de simplicité relative, dans laquelle la rugosité est présente, mais identique à toutes les échelles." Il semble n'y avoir qu'un pas pour faire tomber le postulat de physique statistique selon lequel la position et l'énergie de chaque particule de matière sont aléatoires. Au niveau sub-atomique, ce que l'oeil juge aléatoire pourrait-il être régi par des lois propre au vide ? Ce vide qui, lui aussi comme son nom ne l'indique pas, crée et porte.

Les mots sont moins simples que les idées qu'ils façonnent.

rugosite-fractale

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.