Précis d'épistémologie/ Pourquoi l'entropie est-elle réelle ?

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche

La réalité thermodynamique de l'entropie[modifier | modifier le wikicode]

Pour connaître la matière dans tous ses états, l'entropie est l'un des concepts les plus fondamentaux et les plus importants. Avec lui on peut expliquer à peu près tout, sans lui à peu près rien. On peut toujours attribuer une entropie aux divers fragments de matière dès que des conditions très générales sont réunies, être en équilibre thermique ou proche d'un équilibre thermique, et on peut en général la mesurer. Du point de vue de la science empirique et de la théorie thermodynamique, l'entropie est une grandeur réelle, elle décrit des propriétés réelles de la matière. Dans les cours de thermodynamique on dit qu'elle est une fonction d'état pour dire qu'elle représente l'état réel du système. L'entropie existe réellement, pas seulement dans l'imagination des théoriciens.

Du point de vue de la physique statistique, la réalité de l'entropie est pourtant un problème.

Entropie, ensembles statistiques et moyennes temporelles[modifier | modifier le wikicode]

L'entropie mesure le manque d'information sur l'état réel d'un système. Mais alors il semble qu'elle n'est pas une grandeur objective puisqu'elle dépend de la façon dont l'observateur est informé.

On ne connaît jamais exactement l'état d'un système macroscopique, son microétat, parce qu'il faudrait connaître les états de tous ses constituants microscopiques, qui sont beaucoup trop nombreux pour être recensés. On ne peut connaître qu'une distribution de probabilités sur tous les microétats possibles, c'est à dire tous les états accessibles au système compte tenu des contraintes qu'il doit respecter.

L'entropie est définie d'une façon mathématiquement rigoureuse pour des ensembles statistiques de systèmes physiques. La distribution de probabilités pour un système isolé, ou presque isolé, définit l'ensemble microcanonique. Elle est simplement une probabilité égale pour tous les micro-états accessibles. On ne connaît du système que quelques grandeurs, son volume, son énergie totale, les nombres de particules des diverses espèces... on calcule alors le nombre de micro-états qui respectent ces contraintes et on en déduit l'entropie avec la formule de Boltzmann :

qui est un cas particulier de la formule de Gibbs :

où les sont les probabilités de tous les micro-états accessibles et où est le nombre des ces micro-états. Les sont égales à puisqu'elles sont toutes égales. est la constante de Boltzmann.

Tous les autres ensembles statistiques, canoniques, grand-canoniques, de Gibbs... peuvent être définis à partir de l'ensemble microcanonique, parce que si un système n'est pas isolé, il suffit d'inclure son environnement pour étudier un système isolé. Mais tous ces ensembles n'ont aucune réalité physique pour un système macroscopique. Ils sont beaucoup trop grands pour exister dans la réalité, même si on dispose de très nombreux systèmes physiques pour les représenter. Ils ne sont que des intermédiaires théoriques pour expliquer des systèmes physiques, qui sont les seuls à exister réellement. Ces ensembles statistiques sont nécessairement gigantesques parce qu'ils doivent permettre de définir des probabilités pour tous les micro-états accessibles à un système macroscopique. Mais l'ensemble de ces micro-états est lui-même gigantesque, dès que le système est macroscopique.

La théorie ergodique permet en principe de relier les grandeurs définies avec des ensembles statistiques aux grandeurs définies avec un unique système physique. Les moyennes sur les ensembles sont identifiées aux moyennes temporelles du système. Mais on raisonne en général sur des moyennes de très long terme, parce qu'il faut des durées immenses par rapport à l'âge de l'Univers pour qu'un système macroscopique explore une fraction appréciable de son espace des micro-états accessibles. Or les mesures thermodynamiques sont en général assez rapides. Tant que les systèmes ne sont pas trop éloignés d'un équilibre thermique, une fraction de seconde peut suffire. On peut même souvent les mesurer en continu. On n'attend jamais des milliards d'années.

Si on calcule correctement une grandeur d'équilibre, avec un ensemble statistique adapté, le résultat est confirmé par l'observation. Mais la durée de celle-ci peut être assez brève, juste le temps que le système atteigne son équilibre. Même quand on attend des heures, ou rarement des semaines, pour que l'équilibre thermodynamique soit atteint, ce n'est pas suffisant pour explorer l'espace des micro-états accessibles en son entier. Pourquoi alors le résultat calculé avec une distribution de probabilités sur cet espace est-il identique au résultat observé ?

Le principe des sondages et la méthode Monte-Carlo[modifier | modifier le wikicode]

Le principe des sondages peut expliquer l'égalité entre les grandeurs thermodynamiques réellement mesurées et les grandeurs calculées avec des ensembles statistiques qui n'ont aucune réalité physique. Une moyenne calculée sur un échantillon représentatif peut être une excellente approximation de la moyenne calculée sur l'ensemble tout entier, pourvu que l'échantillon soit suffisamment nombreux et vraiment représentatif. Lors d'une mesure thermodynamique, le système n'explore qu'une petite partie de son espace de micro-états accessibles, mais elle peut être suffisamment grande et représentative pour que la grandeur mesurée soit identique à celle qui a été calculée avec un ensemble statistique.

Une mesure thermodynamique ressemble à la méthode Monte-Carlo. Pour évaluer une moyenne on la calcule à partir d'un échantillon choisi au hasard. Les théoriciens se servent des générateurs pseudo-aléatoires des ordinateurs pour choisir leurs échantillons. Les expérimentateurs font confiance à la Nature. Elle est comme un générateur aléatoire qui choisit à chaque observation un échantillon représentatif qui confirme nos prédictions théoriques. La méthode Monte-Carlo est plus proche de la réalité physique que les ensembles statistiques qu'elle sert à étudier. Quand on fait une mesure thermodynamique la Nature elle-même applique la méthode Monte-Carlo avant de nous fournir le résultat.

Qu'une moyenne temporelle brève soit représentative de l'espace de tous les micro-états accessibles n'est a priori pas du tout évident, et même plutôt exclu, parce qu'on observe seulement une petite partie de la trajectoire du système et qu'elle peut être très différente des autres parties. Comment se fait-il que la Nature soit un générateur aléatoire fiable qui nous donne des échantillons vraiment représentatifs des moyennes de très long terme ?

L'entropie microscopique[modifier | modifier le wikicode]

L'égale probabilité de tous les états accessibles postulée par la distribution microcanonique est très irréaliste pour un système macroscopique, mais elle permet de justifier des distributions de probabilités, Maxwell-Boltzmann, Fermi-Dirac, Bose-Einstein... qui elles sont très réalistes. Ces probabilités, qui déterminent les vitesses d'une molécule dans un gaz, ou des nombres d'occupation d'états quantiques, permettent de définir une entropie microscopique, c'est à dire une entropie par molécule, ou par état quantique d'une particule. L'entropie du système tout entier est la somme des entropies microscopiques de ses constituants pourvu qu'ils soient statistiquement indépendants. Des durées d'observation brèves suffisent en principe pour mesurer les entropies microscopiques parce que les espaces d'états à explorer sont relativement petits. Cela suffit pour justifier la réalité de l'entropie microscopique et à partir de là l'entropie macroscopique aussi. Mais pour cela on a besoin de justifier les distributions de Maxwell-Boltzmann, de Fermi-Dirac, de Bose-Einstein et l'indépendance statistique des constituants microscopiques.

L'indépendance des constituants microscopiques[modifier | modifier le wikicode]

Les constituants microscopiques d'un système en équilibre thermodynamique ne peuvent pas être parfaitement indépendants. Pour qu'ils le soient il faudrait qu'ils n'interagissent pas du tout les uns avec les autres. Mais s'ils n'interagissent pas, ils ne peuvent pas échanger d'énergie et l'équilibre thermique est alors exclu.

Pour qu'un équilibre thermodynamique puisse s'établir, il suffit de supposer que les constituants interagissent faiblement les uns avec les autres d'une façon très diversifiée, c'est à dire que chaque constituant interagit faiblement avec un grand nombre d'autres constituants. Par exemple une molécule d'un gaz est faiblement couplée à toutes les autres, parce qu'elles peuvent entrer en collision, mais c'est un couplage faible parce que la probabilité d'une collision particulière est très petite.

Un constituant microscopique ne peut avoir à lui tout seul qu'un très faible effet sur son environnement, parce qu'il est tout petit par rapport à lui. Si en outre cet effet est dilué sur de nombreuses autres parties, la possibilité d'une réaction de l'environnement à l'effet de ce constituant est négligeable. Tout se passe comme si l'environnement restait statistiquement toujours presque le même, quel que soit l'état du constituant microscopique. L'état d'un constituant est donc statistiquement presque indépendant de l'état de son environnement. Comme cela est vrai pour tous les constituants microscopiques, ils sont tous presque indépendants les uns des autres. On peut en conclure que l'entropie macroscopique est le somme des entropies microscopiques.

Si le système est à l'équilibre thermodynamique, l'environnement de ses constituants ne varie pas au cours du temps. Une moyenne de court terme, bref mais suffisant pour qu'un constituant microscopique explore son espace d'états, est alors identique aux moyennes de long terme, et donc aux moyennes obtenues avec les distributions de Maxwell-Boltzmann, Fermi-Dirac ou Bose-Einstein.

Manque d'information, laisser-faire et équilibre[modifier | modifier le wikicode]

Le manque d'information sur l'état réel d'un système thermodynamique ne vient pas de la paresse ou de l'incompétence de l'observateur mais de la nature des phénomènes observés. Les expériences thermodynamiques laissent les systèmes observés atteindre ou s'approcher d'un équilibre. On ne contrôle qu'un petit nombre de grandeurs macroscopiques et on laisse l'équilibre s'établir en ignorant les micro-états. Si on essayait de les connaître plus précisément, on pourrait empêcher le système de s'approcher de l'équilibre et on ne pourrait pas observer justement ce qu'on veut observer, l'équilibre ou la proximité de l'équilibre. Laisser le système vagabonder au hasard dans son espace de micro-états est une condition nécessaire pour qu'on puisse observer un équilibre thermodynamique. Paradoxalement, l'ignorance des micro-états, qui est une propriété subjective de l'observateur, est une condition nécessaire pour qu'un équilibre thermodynamique, un événement réel, objectif, puisse se produire. C'est pourquoi l'entropie, qui mesure un manque d'information, est une propriété matérielle objective. Elle est le manque d'information qui rend possible l'équilibre thermodynamique réellement observé.

La décohérence quantique[modifier | modifier le wikicode]

Les lois thermodynamiques doivent être justifiées à partir de la physique quantique, comme toutes les autres lois physiques, parce que la théorie quantique est la physique la plus fondamentale. On peut alors se demander si les probabilités des ensembles statistiques peuvent être interprétées comme des probabilités quantiques. La théorie de la décohérence le suggère. Si on observe un système qui interagit avec un environnement qu'on n'observe pas, on doit le décrire avec un opérateur densité qui définit une distribution de probabilités sur les états du système. Même si l'état initial est précisément déterminé, l'évolution ultérieure est décrite par une distribution de probabilités. Cet effet de décohérence peut être très rapide. Mais les distributions de probabilités obtenues par décohérence ne sont pas les distributions des ensembles statistiques de la thermodynamique. La décohérence à elle-seule ne suffit pas pour résoudre le problème des moyennes de court-terme, mais elle peut aider à le résoudre, parce qu'elle est un effet très rapide, très puissant et très général qui introduit beaucoup de hasard dans l'évolution des systèmes physiques.

Compléments[modifier | modifier le wikicode]

Croissance de l'entropie et distribution microcanonique[modifier | modifier le wikicode]

Les sont tous les états accessibles d'un système presque isolé, c'est à dire que les perturbations par l'environnement ne modifient pas ou presque pas l'énergie du système. est la probabilités de transition par unité de temps de l'état à l'état . On suppose que toutes les évolutions microscopiques sont réversibles :

pour tout et tout .

est la probabilité de l'état à l'instant . Par définition des , on a :

parce que

Alors

Or

Donc

et sont de même signe et les sont toujours positifs, donc :

Paradoxalement l'hypothèse de réversibilité microscopique, , conduit à une loi d'irréversibilité des processus macroscopiques, puisque l'entropie d'un système presque isolé ne peut jamais diminuer.

La distribution microcanonique est une distribution d'équilibre :

parce que pour tout et tout .

C'est la seule distribution d'équilibre, parce que si les ne sont pas toutes égales, il y en a au moins une plus petite que les autres. Parmi tous les états tels que , il y en a au moins un pour lequel pour un tel que , sinon ils ne seraient pas accessibles. Alors

et la distribution n'est pas à l'équilibre.

La réalité de la croissance de l'entropie[modifier | modifier le wikicode]

Le théorème de croissance de l'entropie est prouvé d'une façon mathématiquement rigoureuse pour un ensemble statistique qui n'a pas d'existence réelle. définit la probabilité d'occupation de l'état à l'instant pour tous les systèmes d'un immense ensemble imaginé par les théoriciens. Elle décrit l'évolution de cet immense ensemble, pas l'évolution d'un système physique réel. Mais sous des conditions très générales, on peut interpréter les comme des probabilités vraiment mesurables, et comparer ainsi leur évolution aux quantités observées.

On suppose que l'évolution macroscopique du système est lente par rapport aux fluctuations microscopiques. L'environnement de chaque constituant microscopique est alors presque constant sur une durée suffisante pour qu'il explore son espace d'états et définisse ainsi des probabilités d'occupation de ces états. Pour chaque constituant microscopique on peut donc définir des probabilités d'occupation de ses états et en principe les mesurer. Si on suppose que tous les constituants microscopiques sont statistiquement indépendants, ces suffisent pour définir les probabilités de tous les états du système macroscopique.

L'entropie est une grandeur extensive lorsque les parties sont statistiquement indépendantes[modifier | modifier le wikicode]

L'entropie d'une somme est la somme des entropies des parties lorsqu'elles sont indépendantes :

Soient et deux parties indépendantes du système . Les et les sont les états accessibles de et respectivement.

Les entropies de et sont :

Les états accessibles de sont tous les états pour tous les et tous les . Si et sont indépendantes la probabilité de est et l'entropie de est :


Chapitre suivant : La théorie quantique des destinées multiples >>>