Précis d'épistémologie/Pourquoi l'entropie est-elle réelle ?

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche

Sections

La réalité de l'entropie thermodynamique[modifier | modifier le wikicode]

Pour connaître la matière dans tous ses états, l'entropie est l'un des concepts les plus fondamentaux et les plus importants. Avec lui on peut expliquer à peu près tout, sans lui à peu près rien. On peut toujours attribuer une entropie aux divers fragments de matière dès que des conditions très générales sont réunies, être en équilibre thermique ou proche d'un équilibre thermique, et on peut en général la mesurer. Du point de vue de la science empirique et de la théorie thermodynamique, l'entropie est une grandeur réelle, elle décrit des propriétés réelles de la matière. Dans les cours de thermodynamique on dit qu'elle est une fonction d'état pour dire qu'elle est déterminée par l'état réel du système. L'entropie existe réellement, pas seulement dans l'imagination des théoriciens.

Du point de vue de la physique statistique, la réalité de l'entropie est pourtant un problème.

Les trois définitions de l'entropie statistique[modifier | modifier le wikicode]

La physique statistique nous demande de distinguer deux notions d'état pour un système physique, l'état microscopique, ou microétat, et l'état macroscopique, ou macroétat.

  • Le macroétat est l'état tel qu'il est défini par la thermodynamique. Il dépend de paramètres macroscopiques : le volume, l'énergie interne, le nombre de moles, la pression, la température, la tension superficielle, le potentiel chimique, l'aimantation, le champ extérieur appliqué ou tout autre paramètre macroscopique mesurable qui sert à déterminer l'état d'équilibre du système étudié.
  • Le microétat est l'état instantané du système. Il dépend de tous les états de ses constituants microscopiques. En physique classique, il est déterminé par les positions et les vitesses de toutes les particules constituantes. En physique quantique, le microétat est l'état quantique du système qui est déterminé avec l'équation de Schrödinger.

Le macroétat n'évolue pas ou lentement et de façon en général déterministe. Le microétat change en général tout le temps, très rapidement et d'une façon aléatoire.

Il semble que l'état réel d'un système est toujours son microétat. Le macroétat n'est qu'une description grossière qui ignore tous les détails microscopiques.

Sauf cas exceptionnel, on ne connaît jamais exactement le microétat d'un système macroscopique, parce qu'il faudrait connaître les états quantiques de tous ses constituants microscopiques, qui sont beaucoup trop nombreux pour être recensés, et la façon dont ils sont intriqués.

Comme le microétat est en général inconnu, la physique statistique raisonne sur la distribution de probabilités des microétats possibles. L'entropie est toujours définie à partir de cette distribution de probabilités. Elle est calculée avec la formule de Gibbs :

où les sont les probabilités de tous les microétats possibles . est la constante de Boltzmann.

Pour un système quasi-isolé, on peut montrer qu'à l'équilibre tous les microétats possibles sont également probables (cf. complément). D'une façon un peu mystérieuse, on appelle microcanonique cette distribution de probabilités. Si est le nombre des microétats possibles. Les sont alors égales à puisqu'elles sont toutes égales. La formule de Gibbs conduit alors à la formule de Boltzmann :

Boltzmann est le premier (1872-1875) qui a défini l'entropie statistique. Gibbs est venu ensuite et a généralisé la formule de Boltzmann pour des distributions de probabilités a priori quelconques (1902).

En mécanique quantique, on compte le nombre des microétats d'une base. Ce nombre est la dimension de l'espace des microétats possibles. Lorsque l'entropie est définie avec une distribution de probabilités, on peut attribuer des probabilités aux microétats de base, mais le mieux est de raisonner sur l'opérateur densité.

L'entropie mesure le manque d'information sur le microétat d'un système, donc l'ignorance de l'observateur. Mais alors il semble qu'elle n'est pas une grandeur réelle puisqu'elle dépend de la façon dont l'observateur est informé. Faut-il en conclure que la thermodynamique a tort de postuler que l'entropie est une fonction d'état ?

Pour répondre il faut distinguer trois façons d'interpréter la définition mathématique de l'entropie à partir de l'ensemble des microétats possibles, parce qu'on peut donner trois définitions d'un microétat possible :

  • Un microétat accessible au système étudié. Tous les microétats accessibles peuvent être visités par le système lors de son cheminement aléatoire.
  • Un microétat compatible avec les contraintes macroscopiques qui définissent le macroétat.
  • Un microétat compatible avec l'information dont l'observateur dispose.

Cela conduit à trois formes d'entropie qui seront appelées sur cette page l'entropie d'accessibilité, l'entropie des contraintes et l'entropie d'information.

En général mais pas nécessairement, ces trois entropies sont égales parce que tous les microétats compatibles avec les contraintes macroscopiques sont accessibles, et parce que ces contraintes sont précisément l'information dont l'observateur dispose.

L'entropie d'accessibilité peut être plus petite que l'entropie des contraintes, parce qu'il se peut que le système soit empêché d'accéder à une partie des microétats compatibles avec les contraintes macroscopiques. En particulier, si le système est bloqué dans l'un de ses microétats de plus basse énergie, donc le nombre de microétats accessibles mais les microétats de plus basse énergie peuvent être très nombreux. Le nombre de microétats compatibles avec les contraintes macroscopiques peut donc être beaucoup plus grand que 1, . Avec , l'entropie d'un système à température nulle est toujours nulle, mais avec elle peut être très différente. Comme l'entropie de température nulle, qu'on appelle aussi l'entropie résiduelle, est une grandeur mesurable qui est parfois non-nulle, il ne faut pas ignorer la différence entre l'entropie d'accessibilité et l'entropie des contraintes.

L'entropie d'information peut être plus petite que l'entropie des contraintes ou que l'entropie d'accessibilité dès que l'observateur est informé sur des détails microscopiques. Elle peut être plus grande que l'entropie des contraintes lorsque l'observateur ne connaît pas toutes les contraintes macroscopiques que le système observé doit respecter.

Clairement l'entropie d'information dépend en général de l'observateur et n'est pas déterminée par l'état réel du système étudié. La physique statistique nous invite en revanche à considérer que l'entropie des contraintes est une grandeur réelle. Mais cela n'est pas du tout évident a priori, puisqu'elle est comme l'entropie d'information une mesure du manque d'information sur le microétat du système. L'entropie d'accessibilité semble beaucoup plus réelle, parce qu'elle dépend de l'espace des microétats qui peuvent être réellement visités.

L'entropie des contraintes est une sorte d'entropie d'information. C'est l'entropie d'information d'un observateur qui est informé des contraintes macroscopiques qui déterminent l'équilibre d'un système thermodynamique.

Pour justifier la réalité de l'entropie statistique on suppose en général que l'entropie des contraintes est égale à l'entropie d'accessibilité (Diu, Guthmann, Lederer, Roulet 1989). On suppose en outre que les grandeurs thermodynamiques mesurables peuvent être définies à partir de moyennes calculées sur l'ensemble de tous les microétats accessibles. Quand le microétat change tout le temps il est naturel de considérer une moyenne temporelle qui prend en compte ces variations. Mais ces justifications de la réalité de l'entropie statistique se heurtent à de nombreuses difficultés.

Les sections suivantes montrent que l'entropie thermodynamique n'est pas l'entropie d'accessibilité mais l'entropie des contraintes lorsqu'elles sont différentes, et qu'il faut raisonner sur l'entropie d'information pour comprendre l'impossibilité du mouvement perpétuel de seconde espèce.

La réalité de l'entropie d'accessibilité[modifier | modifier le wikicode]

Ensembles statistiques, ergodicité et moyennes temporelles[modifier | modifier le wikicode]

La physique statistique est développée d'une façon mathématiquement rigoureuse en raisonnant sur des ensembles statistiques de systèmes physiques (Gibbs 1902). La probabilité d'un microétat est interprétée comme la probabilité qu'un système choisi aléatoirement dans l'ensemble statistique soit dans ce microétat. La théorie ergodique permet en principe de relier les grandeurs définies avec un ensemble statistique aux grandeurs définies avec un unique système physique. Les moyennes sur l'ensemble sont identifiées aux moyennes temporelles du système. Mais on raisonne en général sur des moyennes de très long terme, parce qu'il faut des durées immenses par rapport à l'âge de l'Univers pour qu'un système macroscopique explore une fraction appréciable de son espace des microétats accessibles. Or les mesures thermodynamiques sont en général assez rapides. Tant que les systèmes ne sont pas trop éloignés d'un équilibre thermique, une fraction de seconde peut suffire. On peut même souvent les mesurer en continu. On n'attend jamais des milliards d'années.

Si on calcule correctement une grandeur d'équilibre, avec un ensemble statistique adapté, le résultat est confirmé par l'observation. Mais la durée de celle-ci peut être assez brève, juste le temps que le système atteigne son équilibre. Même quand on attend des heures, ou rarement des semaines, pour que l'équilibre thermodynamique soit atteint, ce n'est pas suffisant pour explorer l'espace des microétats accessibles en son entier. Pourquoi alors le résultat calculé avec une distribution de probabilités sur cet espace est-il identique au résultat observé ?

Le principe des sondages et la méthode Monte-Carlo[modifier | modifier le wikicode]

Le principe des sondages peut expliquer l'égalité entre les grandeurs thermodynamiques réellement mesurées et les grandeurs calculées avec des ensembles statistiques qui n'ont aucune réalité physique. Une moyenne calculée sur un échantillon représentatif peut être une excellente approximation de la moyenne calculée sur l'ensemble tout entier, pourvu que l'échantillon soit suffisamment nombreux et vraiment représentatif. Lors d'une mesure thermodynamique, le système n'explore qu'une petite partie de son espace de microétats accessibles, mais elle peut être suffisamment grande et représentative pour que la grandeur mesurée soit identique à celle qui a été calculée avec un ensemble statistique.

Une mesure thermodynamique ressemble à la méthode Monte-Carlo. Pour évaluer une moyenne on la calcule à partir d'un échantillon choisi au hasard. Les théoriciens se servent des générateurs pseudo-aléatoires des ordinateurs pour choisir leurs échantillons. Les expérimentateurs font confiance à la Nature. Elle est comme un générateur aléatoire qui choisit à chaque observation un échantillon représentatif qui confirme nos prédictions théoriques. La méthode Monte-Carlo est plus proche de la réalité physique que les ensembles statistiques qu'elle sert à étudier. Quand on fait une mesure thermodynamique la Nature elle-même applique la méthode Monte-Carlo avant de nous fournir le résultat.

Qu'une moyenne temporelle brève soit représentative de l'espace de tous les micro-états accessibles n'est a priori pas du tout évident, et même plutôt exclu, parce qu'on observe seulement une petite partie de la trajectoire du système et qu'elle peut être très différente des autres parties. Comment se fait-il que la Nature soit un générateur aléatoire fiable qui nous donne des échantillons vraiment représentatifs des moyennes de très long terme ?

La décohérence quantique[modifier | modifier le wikicode]

Les lois thermodynamiques doivent être justifiées à partir de la physique quantique, comme toutes les autres lois physiques, parce que la théorie quantique est la physique la plus fondamentale. On peut alors se demander si les probabilités des ensembles statistiques peuvent être interprétées comme des probabilités quantiques. La théorie de la décohérence le suggère. Si on observe un système qui interagit avec un environnement qu'on n'observe pas, on doit le décrire avec un opérateur densité qui définit une distribution de probabilités sur les états du système. Même si l'état initial est précisément déterminé, l'évolution ultérieure est décrite par une distribution de probabilités. Cet effet de décohérence peut être très rapide. Mais les distributions de probabilités obtenues par décohérence ne sont pas en général les distributions des ensembles statistiques de la thermodynamique. La décohérence à elle-seule ne suffit pas pour résoudre le problème des moyennes de court-terme, mais elle peut aider à le résoudre, parce qu'elle est un effet très rapide, très puissant et très général qui introduit beaucoup de hasard dans l'évolution des systèmes physiques.

L'entropie microscopique[modifier | modifier le wikicode]

Les distributions de probabilités calculées par la physique statistique (Maxwell-Boltzmann, Fermi-Dirac, Bose-Einstein) déterminent les probabilités des états des constituants microscopiques d'un système thermodynamique. Ces probabilités, qui déterminent les vitesses d'une molécule dans un gaz, ou des nombres d'occupation d'états quantiques, permettent de définir une entropie microscopique, c'est à dire une entropie par molécule, ou par état quantique d'une particule. L'entropie du système tout entier est la somme des entropies microscopiques de ses constituants pourvu qu'ils soient statistiquement indépendants (cf. complément). Pour tenir compte de l'indiscernabilité des particules il faut raisonner sur les nombres d'occupation des états quantiques.

La réalité de l'entropie microscopique n'est pas incompatible avec la brièveté des observations parce que l'espace des états accessibles d'un constituant microscopique est petit. Cela suffit pour justifier la réalité de l'entropie microscopique et à partir de là l'entropie macroscopique aussi. Mais pour cela on a besoin de justifier l'indépendance statistique des constituants microscopiques.

L'indépendance des constituants microscopiques[modifier | modifier le wikicode]

Les constituants microscopiques d'un système en équilibre thermodynamique ne peuvent pas être parfaitement indépendants. Pour qu'ils le soient il faudrait qu'ils n'interagissent pas du tout les uns avec les autres. Mais s'ils n'interagissent pas, ils ne peuvent pas échanger d'énergie et l'équilibre thermique est alors exclu.

Pour qu'un équilibre thermodynamique puisse s'établir, il suffit de supposer que les constituants interagissent faiblement les uns avec les autres d'une façon très diversifiée, c'est à dire que chaque constituant interagit faiblement avec un grand nombre d'autres constituants. Par exemple une molécule d'un gaz est couplée à toutes les autres, à cause des collisions, mais c'est un couplage faible parce que la probabilité d'une collision particulière est très petite.

Un constituant microscopique ne peut avoir à lui tout seul qu'un très faible effet sur son environnement, parce qu'il est tout petit par rapport à lui. Si en outre cet effet est dilué sur de nombreuses autres parties, la possibilité d'une réaction de l'environnement à l'effet de ce constituant est négligeable. Tout se passe comme si l'environnement restait statistiquement toujours presque le même, quel que soit l'état du constituant microscopique. L'état d'un constituant est donc statistiquement presque indépendant de l'état de son environnement. Comme cela est vrai pour tous les constituants microscopiques faiblement couplés, ils sont tous presque indépendants les uns des autres. On peut en conclure que l'entropie macroscopique est le somme des entropies microscopiques.

Pour justifier la réalité de l'entropie statistique, la théorie ergodique ne suffit pas, il faut surtout prouver la quasi-indépendance statistique des constituants microscopiques.

Manque d'information, laisser-faire et équilibre[modifier | modifier le wikicode]

Le manque d'information sur l'état réel d'un système thermodynamique ne vient pas de la paresse ou de l'incompétence de l'observateur mais de la nature des phénomènes observés. Les expériences thermodynamiques laissent les systèmes observés atteindre ou s'approcher d'un équilibre. On ne contrôle qu'un petit nombre de grandeurs macroscopiques et on laisse l'équilibre s'établir en ignorant les microétats. Si on essayait de les connaître plus précisément, on pourrait empêcher le système de s'approcher de l'équilibre et on ne pourrait pas observer justement ce qu'on veut observer, l'équilibre ou la proximité de l'équilibre. Laisser le système vagabonder au hasard dans son espace de microétats est une condition nécessaire pour qu'on puisse observer un équilibre thermodynamique. Paradoxalement, l'ignorance des microétats, qui est une propriété subjective de l'observateur, est une condition nécessaire pour qu'un équilibre thermodynamique, un événement réel, objectif, puisse se produire. C'est pourquoi l'entropie, qui mesure un manque d'information, est une propriété matérielle objective. Elle est le manque d'information qui rend possible l'équilibre thermodynamique réellement observé.

La différence entre l'entropie thermodynamique et l'entropie d'accessibilité[modifier | modifier le wikicode]

Un verre est un liquide figé. Plus précisément, c'est un liquide dont la viscosité est tellement élevée qu'on ne peut pas observer son écoulement, sauf sur des durées très longues, des jours, des siècles ou davantage. On peut donc le considérer comme un solide mais sa structure microscopique est aussi désordonnée que celle d'un liquide.

Lors de la transition liquide-verre, la variation de l'entropie thermodynamique est continue, donc l'entropie thermodynamique d'un verre est égale à celle du liquide à la même température. Mais l'entropie d'accessibilité est beaucoup plus petite, parce que le verre est bloqué dans une configuration particulière tandis que le liquide peut explorer toutes les configurations compatibles avec les contraintes macroscopiques.

L'existence des verres prouve donc que l'entropie thermodynamique est l'entropie des contraintes et non l'entropie d'accessibilité si elles sont différentes. L'entropie thermodynamique est donc une sorte d'entropie d'information. C'est l'entropie d'information d'un observateur qui est informé des contraintes.

L'entropie de température nulle est la différence entre l'entropie des contraintes et l'entropie d'accessibilité à . Plus exactement elle est la limite de cette différence quand tend vers zéro. Les matériaux qui ont une entropie de température nulle sont des solides désordonnés tels que les verres. L'entropie de température nulle est égale à est le nombre de microétats compatibles avec les contraintes macroscopiques.

Qu'il faille compter des microétats qui ne sont pas visités par un système thermodynamique est a priori surprenant. Le manque d'information sur la configuration microscopique d'un solide désordonné dépend de l'observateur. Si nous observons les détails microscopiques d'une configuration, nous réduisons ce manque d'information. On est donc tenté d'affirmer que l'entropie thermodynamique devrait être l'entropie d'accessibilité et non l'entropie des contraintes si elle doit être une grandeur réelle. Mais il faudrait alors renoncer à la loi de non-décroissance de l'entropie puisque l'entropie d'accessibilité est réduite spontanément lors de la transition liquide-verre.

Pourquoi faut-il tenir compte de microétats qui ne sont pas visités par un système pour calculer correctement son entropie thermodynamique ?

Comme l'entropie mesure le manque d'information sur les microétats d'un système on est tenté de conclure que l'observation des détails microscopiques d'un solide désordonné devrait réduire son entropie. Mais alors l'entropie thermodynamique ne pourrait pas être une grandeur réelle, mesurable, la même pour tous les observateurs, elle ne serait rien d'autre qu'une entropie d'information arbitraire. Pourquoi alors l'entropie thermodynamique est-elle vraiment une grandeur réelle ?

Les deux problèmes ci-dessus sont étroitement liés. Pour les résoudre il faut comprendre que l'information peut être utilisée comme un carburant et que la thermodynamique nous demande de raisonner sur l'entropie d'information.

L'information comme carburant[modifier | modifier le wikicode]

Le démon de Maxwell[modifier | modifier le wikicode]

Un démon de Maxwell montre que l'information peut être transformée en travail :

Considérons un gaz dans un récipient. On place une cloison en son milieu. Elle est munie d'une petite porte commandée par un dispositif qui détecte la vitesse des molécules incidentes. Il ouvre la porte seulement si une molécule qui vient de la gauche va plus vite que la moyenne ou si une molécule qui vient de la droite va moins vite que la moyenne. De cette façon le compartiment de droite est réchauffé tandis que celui de gauche est refroidi (Maxwell 1871). On peut se servir de cette différence de température pour faire fonctionner un moteur thermique.

Le dispositif d'ouverture de porte est un démon de Maxwell. Il acquiert de l'information qui peut être ensuite transformée en travail. L'information est donc une sorte de carburant.

Maxwell a inventé son "démon" pour montrer que la loi de non-décroissance de l'entropie est seulement une vérité statistique qui pourrait être transgressée si on était capable de modifier les équilibres statistiques des constituants microscopiques. En son temps, l'existence des atomes et des molécules était encore très hypothétique. Envisager la possibilité de les manipuler était donc hors de question. Mais dès que les constituants microscopiques de la matière furent mieux connus, la possibilité d'un dispositif mécanique qui fonctionne comme un démon de Maxwell pouvait être prise au sérieux.

À ce jour nos capacités d'observation et de manipulation des constituants microscopiques ne permettent pas de réaliser le dispositif imaginé par Maxwell, mais la microscopie à effet tunnel permet d'observer et de manipuler les atomes. On peut alors imaginer un dispositif qui permet de récupérer du travail après avoir réduit l'entropie du système observé, donc une sorte de démon de Maxwell en principe réalisable :

Considérons un cristal qui peut accueillir des atomes en surface. On suppose qu'initialement atomes sont répartis aléatoirement sur sites et que la température est suffisamment faible pour qu'ils y restent. C'est donc un désordre figé. On commence par observer la configuration exacte des atomes de surface, ce qu'on peut faire avec un microscope à effet tunnel, puis on les déplace et on les rassemble avec le même microscope sur une fraction de la surface. L'activité du microscope ressemble à un travail de compression isotherme sur un gaz, sauf que ce n'est pas un gaz mais un désordre figé en surface.

Initialement le nombre de configurations possibles est égal au nombre de façons de placer atomes sur sites. Le désordre figé des atomes en surface apporte donc une contribution à l'entropie thermodynamique du cristal :

où on s'est servi de l'approximation de Stirling :

Après avoir ordonné tous les atomes .

La loi de non-décroissance de l'entropie semble donc transgressée, comme Maxwell l'avait prédit, parce qu'on peut manipuler les atomes.

Le déplacement des atomes ne requiert en principe aucun travail parce que le travail d'arrachage d'un atome peut être récupéré lors de la redéposition. Mais comme un microscope à effet tunnel consomme de l'énergie et dissipe de la chaleur, il ne diminue pas l'entropie thermodynamique totale. Cette objection est discutée plus loin.

Quantité d'information et travail[modifier | modifier le wikicode]

Pour convertir en travail la réduction de l'entropie thermodynamique du cristal on met sa surface en contact avec un récipient vide de volume dont les autres parois ne peuvent pas accueillir les atomes. On divise ce récipient avec une paroi mobile en deux parties à gauche et à droite dont les volumes sont respectivement et . On chauffe le cristal pour vaporiser les atomes dans le volume . On laisse ensuite le gaz obtenu se détendre de façon isotherme dans la totalité du récipient, ce qui fournit un travail . On refroidit ensuite le cristal pour laisser les atomes se redéposer à la surface du cristal. Si on procède de façon réversible, avec une succession de bains thermiques, la chaleur fournie lors du chauffage par chaque bain thermique utilisé est exactement égale à la chaleur qu'il récupère lors du refroidissement, parce que la chaleur spécifique à volume constant d'un gaz ne dépend pas de son volume. Le cristal et les bains thermiques qui ont servi à la réchauffer sont donc revenus à leur état initial.

On a supposé qu'une paroi absorbante pouvait faire un vide parfait dans un volume arbitrairement grand. Une telle paroi ne peut pas exister sinon on pourrait faire un mouvement perpétuel de deuxième espèce : on place la paroi chargée d'atomes au contact d'un récipient vide, on la chauffe jusqu'à une température suffisamment chaude pour que tous les atomes soient vaporisés. On laisse alors le gaz se détendre de façon isotherme pour fournir du travail. On refroidit ensuite le gaz à une température suffisamment froide pour que tous les atomes se redéposent sur la paroi absorbante. Si on procède de façon réversible la chaleur fournie lors du chauffage par chaque bain thermique utilisé est exactement égale à la chaleur qu'il récupère lors du refroidissement. On pourrait donc revenir à l'état initial après avoir fourni du travail en n'extrayant la chaleur que d'un seul bain thermique.

Pour faire un calcul exact et compatible avec les lois de la thermodynamique il faut donc tenir compte de la densité d'équilibre d'un gaz au contact d'une paroi absorbante. Cette densité ne peut pas être nulle, mais elle peut être très petite, a priori aussi petite qu'on le veut si la paroi est suffisamment absorbante. Cela suffit pour justifier le calcul ci-dessus où elle est négligée.

Supposons que . Alors

Si en outre , on obtient

Or est égale à la réduction d'entropie d'information qu'on obtient lorsqu'on observe les positions de tous les atomes de surface. On obtient ainsi un exemple du théorème suivant :

Si l'entropie d'information est plus petite que l'entropie thermodynamique, alors la différence multipliée par la température mesure le maximum de la quantité de travail que le système peut fournir lorsqu'il ne peut recevoir de chaleur que d'un bain thermique à la température .

Ce théorème a été établi pour la première fois par Szilard en 1929. Mais son modèle est très irréaliste parce qu'il postule qu'une seule molécule peut pousser un piston comme si elle était un gaz ordinaire.

Pourquoi un démon de Maxwell ne peut-il pas réduire l'entropie totale ?[modifier | modifier le wikicode]

Pour que l'existence d'un démon de Maxwell soit compatible avec les lois de la thermodynamique il faut que l'une au moins des conditions suivantes soit satisfaite :

  1. Le fonctionnement du dispositif ne réduit pas l'entropie du système observé parce qu'il l'augmente avant de la diminuer.
  2. Le fonctionnement du dispositif augmente l'entropie de l'environnement.
  3. Le fonctionnement du dispositif augmente sa propre entropie.

Maxwell supposait que son démon devait voir les molécules. Mais pour les voir il faut éclairer le gaz et donc le réchauffer. Un tel réchauffement fait augmenter l'entropie du gaz et on peut s'attendre à ce que cette augmentation soit supérieure à la diminution provoquée par l'établissement d'une différence de température. Dans ce cas c'est la condition 1 qui empêche la réduction de l'entropie totale.

La microscopie à effet tunnel ne requiert pas d'éclairage et permet vraiment de diminuer l'entropie du système observé. Mais elle consomme de l'énergie et cède de la chaleur à l'environnement. On est tenté de conclure que l'acquisition d'information microscopique empêche un démon de Maxwell de réduire l'entropie totale parce qu'elle a un coût énergétique. Mais l'acquisition d'information n'a pas nécessairement un coût énergétique. Si le système complet constitué d'un détecteur et d'un système observé est parfaitement isolé de son environnement, cela n'empêche pas le détecteur d'acquérir de l'information. Lors d'une mesure quantique idéale par exemple, le système complet est isolé. Si le système observé est dans un état propre de la mesure, et s'il y a n tels états initiaux possibles, il y a également n états finaux possibles du détecteur, et le système observé n'est pas perturbé. Initialement, il y a n états initiaux possibles du système complet, parce que le détecteur est dans un unique microétat. Finalement il y a également n états finaux possibles du système complet parce que le système observé et le détecteur sont parfaitement corrélés. L'information est donc acquise sans augmenter l'entropie du système complet.

La physique n'interdit donc pas l'existence d'un système capable de détecter les atomes sans coût énergétique.

Faut-il conclure qu'un démon de Maxwell peut réduire l'entropie totale ?

Un dispositif qui acquiert de l'information doit la mettre en mémoire pour pouvoir l'utiliser. Si on observe un désordre figé, le dispositif d'enregistrement de l'information reproduit dans sa propre mémoire le désordre figé observé. Par exemple des atomes à la surface d'un cristal peuvent servir à enregistrer de l'information. Un atome peut enregistrer un bit d'information s'il a deux positions possibles. 0 est mémorisé par l'atome à gauche par exemple et 1 par l'atome à droite. Si initalement tous les atomes de la mémoire sont bien rangés, tous à gauche ou tous à droite, ils ne le sont plus après l'observation d'un désordre figé. L'entropie de la mémoire a donc augmenté.

Affirmer que l'entropie d'une mémoire augmente lorsqu'elle enregistre des informations est très paradoxal. Pour un observateur qui enregistre des informations, l'entropie de sa mémoire n'augmente pas, parce qu'il n'ignore pas dans quel état est sa mémoire. C'est seulement pour un observateur extérieur, qui ne sait pas quelles informations ont été enregistrées, que l'entropie d'information de la mémoire non-observée augmente.

Pour résoudre le problème il faut comprendre que la remise à zéro d'une mémoire requiert en général de l'énergie. Pour le prouver on a d'abord besoin de la loi de conservation de l'entropie d'information d'un système isolé.

La conservation de l'entropie d'information d'un système isolé[modifier | modifier le wikicode]

Si un système est isolé, son évolution spontanée conserve l'entropie d'information d'un observateur extérieur, c'est à dire que le nombre de microétats compatibles avec les informations d'un observateur extérieur ne change pas.

Cette loi est une conséquence du déterminisme hamiltonien de l'évolution d'un système isolé : des microétats distincts à un instant initial évoluent vers des microétats distincts à un instant ultérieur.

Si on calcule l'entropie d'information non avec le nombre de microétats mais avec une distribution de probabilités sur les microétats, la loi de conservation de l'entropie d'information d'un système isolé demeure parce que la distribution de probabilités sur les microétats finaux est la même que celle des états initiaux.

Lorsqu'un observateur acquiert des informations en observant un système, son entropie d'information peut diminuer mais le système observé n'est pas isolé.

Comme l'entropie thermodynamique est une sorte d'entropie d'information, la loi de conservation de l'entropie d'information d'un système isolé vaut aussi pour l'entropie thermodynamique. Comment alors se fait-il que l'entropie thermodynamique d'un système isolé puisse augmenter ?

Pourquoi l'entropie peut-elle augmenter ?[modifier | modifier le wikicode]

L'entropie thermodynamique et plus généralement l'entropie d'information d'un système parfaitement isolé ne peuvent pas augmenter parce que sa dynamique est hamiltonienne. Un système dont l'entropie augmente ne peut donc pas être parfaitement isolé. Lorsqu'on raisonne en thermodynamique sur un système isolé dont l'entropie augmente, on veut seulement dire qu'il est quasi-isolé, c'est à dire que l'énergie échangée avec son environnement peut être négligée par rapport à son énergie interne. Les perturbations de l'environnement introduisent du hasard dans l'évolution du système. Elle suffisent pour que sa dynamique ne soit pas hamiltonienne mais stochastique (Diu, Guthmann, Lederer, Roulet 1989).

Les calculs irréversibles réduisent-ils toujours l'entropie thermodynamique d'un ordinateur ?[modifier | modifier le wikicode]

Le raisonnement suivant suggère que les calculs irréversibles réduisent toujours l'entropie thermodynamique d'un ordinateur :

Lorsqu'un calcul est réversible, le nombre d'états finaux possibles est égal au nombre d'états initiaux possibles. Si le calcul est irréversible le nombre d'états finaux possibles est plus petit que le nombre d'états initiaux possibles. Un calcul irréversible permet donc de réduire le nombre d'états compatibles avec l'information disponible, et donc de réduire l'entropie d'information d'un ordinateur du point de vue d'un observateur extérieur qui n'est pas informé sur l'état de sa mémoire.

L'entropie d'information d'un système isolé ne peut pas décroître. Si l'observateur n'acquiert pas d'informations sur le système au cours de son évolution, l'entropie d'information ne peut décroître que si l'entropie thermodynamique décroît également. La thermodynamique impose qu'une telle réduction est accompagnée d'une augmentation d'entropie thermodynamique de l'environnement. Si l'entropie de l'environnement augmente parce qu'il absorbe de la chaleur, c'est qu'il a fallu fournir de l'énergie à l'ordinateur. On est ainsi conduit à une formule paradoxale : il faut travailler pour oublier. Plus précisément, il faut dépenser de l'énergie pour perdre des informations (Landauer 1961).

Mais il y a une faille dans le raisonnement précédent. On peut représenter un bit par l'état d'un gaz dans un récipient muni d'une paroi intérieure amovible. 0 est représenté par le gaz enfermé dans la partie gauche, 1 par le gaz également réparti à gauche et à droite. Retirer la paroi puis la remettre en place permet de faire un calcul irréversible :

Un calcul irréversible ne réduit donc pas forcément l'entropie thermodynamique d'un ordinateur.

Il suffit de se donner une condition supplémentaire pour prouver qu'un calcul irréversible réduit toujours l'entropie thermodynamique d'un ordinateur : les espaces de microétats qui font exister matériellement les divers états de la mémoire de l'ordinateur doivent être disjoints.

Le démon de Maxwell et l'impossibilité du mouvement perpétuel de deuxième espèce[modifier | modifier le wikicode]

Pour un observateur extérieur qui n'est pas informé des observations faites par le démon, la diminution de l'entropie thermodynamique du système sur lequel le démon agit est compensée par l'augmentation de l'entropie d'information du démon. C'est pourquoi le démon ne réduit pas l'entropie totale.

Pour qu'un démon de Maxwell fasse un mouvement perpétuel, il faut qu'il réinitialise sa mémoire au commencement de chaque cycle afin de faire de la place pour enregistrer les informations sur le système qu'il observe. Mais la remise à zéro d'une mémoire est un calcul irréversible qui réduit son entropie thermodynamique. Cette réduction doit être compensée par une augmentation d'entropie thermodynamique de l'environnement. Si le démon réduit sa propre entropie en chauffant l'environnement, il faut lui fournir de l'énergie pour compenser cette perte de chaleur. C'est donc la remise à zéro de la mémoire du démon de Maxwell qui est la source ultime de l'impossibilité du mouvement perpétuel de deuxième espèce (Bennett 1982).

La mémoire du démon peut être remise à zéro sans dissipation de chaleur par un observateur qui la manipule de l'extérieur, mais alors il faut tenir compte de la mémoire de l'observateur qui elle aussi doit être remise à zéro pour commencer un nouveau cycle.

Si la mémoire du démon peut être remise à zéro sans réduire sa propre entropie thermodynamique, parce que les espaces de microétats qui réalisent les états de mémoire ne sont pas disjoints, c'est que l'enregistrement des observations requiert une réduction d'entropie thermodynamique, qui doit être compensée par une augmentation ailleurs.

Dans tous les cas un démon de Maxwell ne peut pas faire un mouvement perpétuel de deuxième espèce.

La thermodynamique est une physique de l'observation[modifier | modifier le wikicode]

Pour comprendre la thermodynamique, il faut raisonner sur les trois formes d'entropie statistique, l'entropie d'accessibilité parce qu'elle explique pourquoi un système quasi-isolé évolue vers l'équilibre en augmentant son entropie, l'entropie des contraintes parce qu'elle est l'entropie thermodynamique mesurée par les expérimentateurs, et l'entropie d'information parce qu'elle permet d'expliquer pourquoi un démon de Maxwell ne peut pas faire un mouvement perpétuel de seconde espèce.

L'entropie thermodynamique est une sorte d'entropie d'information, parce que c'est l'observateur qui est informé des contraintes macroscopiques qui déterminent un équilibre thermodynamique, mais cela ne l'empêche pas d'être une grandeur réelle, parce que les contraintes macroscopiques imposées par un observateur existent réellement.

La thermodynamique ne nous invite pas seulement à raisonner sur les propriétés de la matière, elle nous invite également à raisonner sur le rôle des observations. Mais c'est toujours de la physique, parce que les observateurs sont réels eux aussi.

Compléments[modifier | modifier le wikicode]

Le mouvement perpétuel de seconde espèce[modifier | modifier le wikicode]

Une machine qui pourrait élever un poids ou faire avancer une voiture sans qu'on lui fournisse de l'énergie pourrait réaliser un mouvement perpétuel de première espèce. La loi de conservation de l'énergie, la première loi de la thermodynamique, interdit l'existence d'une telle machine. C'est une des lois les plus fondamentales de la physique. Tous les physiciens auraient tout faux si on pouvait inventer une semblable machine, mais personne ne l'a jamais inventée.

Le mouvement perpétuel de seconde espèce ne contredit pas la loi de de conservation de l'énergie. N'importe quel corps peut céder de l'energie s'il est refroidi, sauf s'il est à température nulle, égale à 0 Kelvin = -273.15 °Celsius = −459.67 °Fahrenheit. On peut donc imaginer une voiture, un bateau ou un avion qui pourrait avancer sans consommer de carburant. Il lui suffirait d'absorber de l'air ou de l'eau à la température ambiante et de la rejeter à une température plus froide. La différence d'énergie servirait à faire tourner le moteur.

Pour qu'un tel moteur puisse fonctionner il faudrait pouvoir séparer un corps dont la température est uniforme en deux parties, l'une plus chaude, l'autre plus froide. Mais c'est interdit par la seconde loi de la thermodynamique parce que cela réduirait l'entropie totale. L'impossibilité du mouvement perpétuel de seconde espèce résulte donc de la loi de non-décroissance de l'entropie totale, la seconde loi de la thermodynamique.

Croissance de l'entropie d'accessibilité et distribution microcanonique[modifier | modifier le wikicode]

Les sont tous les états accessibles d'un système presque isolé, c'est à dire que les perturbations par l'environnement ne modifient pas ou presque pas l'énergie du système. est la probabilités de transition par unité de temps de l'état à l'état . On suppose que toutes les évolutions microscopiques sont réversibles :

pour tout et tout .

est la probabilité de l'état à l'instant . Par définition des , on a :

parce que

Alors

Or

Donc

et sont de même signe et les sont toujours positifs, donc :

Paradoxalement l'hypothèse de réversibilité microscopique, , conduit à une loi d'irréversibilité des processus macroscopiques, puisque l'entropie d'un système quasi-isolé ne peut jamais diminuer.

La distribution microcanonique est une distribution d'équilibre :

parce que pour tout et tout .

C'est la seule distribution d'équilibre, parce que si les ne sont pas toutes égales, il y en a au moins une plus petite que les autres. Parmi tous les états tels que , il y en a au moins un pour lequel pour un tel que , sinon ils ne seraient pas accessibles. Alors

et la distribution n'est pas à l'équilibre.

La réalité de la croissance de l'entropie d'accessibilité[modifier | modifier le wikicode]

Le théorème de croissance de l'entropie d'accessibilité est prouvé d'une façon mathématiquement rigoureuse pour un ensemble statistique qui n'a pas d'existence réelle. définit la probabilité d'occupation de l'état à l'instant pour tous les systèmes d'un immense ensemble imaginé par les théoriciens. Elle décrit l'évolution de cet immense ensemble, pas l'évolution d'un système physique réel. Mais sous des conditions très générales, on peut interpréter les comme des probabilités vraiment mesurables, et comparer ainsi leur évolution aux quantités observées.

On suppose que l'évolution macroscopique du système est lente par rapport aux fluctuations microscopiques. L'environnement de chaque constituant microscopique est alors presque constant sur une durée suffisante pour qu'il explore son espace d'états et définisse ainsi des probabilités d'occupation de ces états. Pour chaque constituant microscopique on peut donc définir des probabilités d'occupation de ses états et en principe les mesurer. Si on suppose que tous les constituants microscopiques sont statistiquement indépendants, ces suffisent pour définir les probabilités de tous les états du système macroscopique.

Désordre figé et décroissance spontanée de l'entropie d'accessibilité[modifier | modifier le wikicode]

Lors de la transition liquide-verre, l'entropie d'accessibilité totale du liquide et du bain thermique qui le refroidit diminue. La diminution d'entropie d'accessibilité du verre n'est pas compensée par l'augmentation d'entropie d'accessibilité du bain thermique. Il semble donc que le théorème de croissance de l'entropie d'accessibilité est transgressé, alors qu'il est prouvé rigoureusement sous des conditions très générales. Mais lorsque le verre s'est figé dans un configuration désordonnée, les autres configurations restent théoriquement accessibles. Il y a une probabilité négligeable mais non-nulle que le bain thermique cède brièvement une partie de sa chaleur qui permettrait au verre d'être à nouveau liquide puis de redevenir verre dans une autre configuration désordonnée. Toutes les configurations sont donc en principe toujours accessibles, mais en pratique le verre reste figé dans une seule. Le théorème de croissance de l'entropie d'accessibilité considère que l'espace des états accessibles ne change pas. Il ignore la possibilité que des microétats deviennent en pratique inaccessibles.

L'entropie est une grandeur extensive lorsque les parties sont statistiquement indépendantes[modifier | modifier le wikicode]

L'entropie d'une somme est la somme des entropies des parties lorsqu'elles sont indépendantes :

Soient et deux parties indépendantes du système . Les et les sont les états accessibles de et respectivement.

Les entropies de et sont :

Les états accessibles de sont tous les états pour tous les et tous les . Si et sont indépendantes la probabilité de est et l'entropie de est :

La machine de Szilard[modifier | modifier le wikicode]

Pour mieux comprendre la transformation d'information en travail, Szilard (1929) nous a invité à raisonner sur une machine qui fonctionne avec un "gaz" à une molécule :

Une molécule est enfermée dans un récipient qui peut être séparé par une paroi amovible et mobile. Lorsque la paroi est mise en place au milieu du récipient on détecte la présence de la molécule dans l'un ou l'autre des compartiments séparés. On a donc acquis un bit d'information. On se sert alors de la paroi comme d'un piston sur lequel la molécule peut exercer un travail. Il faut savoir où est la molécule pour savoir dans quel sens de déplacement du piston un travail peut être récupéré. De cette façon on calcule que dans des conditions optimales un bit d'information permet de récupérer un travail égal à . C'est le travail effectué par une molécule sur un piston lors d'une détente isotherme à la température qui double le volume accessible.

La machine de Szilard semble en contradiction avec la thermodynamique parce qu'il suggère qu'on pourrait faire un mouvement perpétuel de seconde espèce. Si le piston ne peut se déplacer que dans un sens, il n'est pas nécessaire de connaître la position de la molécule pour récupérer du travail. Une fois sur deux le piston reste immobile parce que la molécule est du mauvais côté du piston, et on ne récupére aucun travail, mais une fois sur deux il se déplace et on récupére un travail égal à . En répétant de nombreuses fois l'expérience on pourrait ainsi obtenir une quantité arbitraire de travail sans en dépenser pour connaître la position de la molécule.

Mais un tel procédé requiert un dispositif qui retire le piston et le remet en place. Or il y a deux positions possibles du piston à la fin d'un cycle, soit au milieu s'il n'a pas bougé, soit à une extrémité, s'il a bougé. Le dispositif doit donc acquérir un bit d'information à la fin de chaque cycle. Pour revenir à son état initial, il doit effacer cette information. Le coût d'effacement d'une information est donc là aussi à l'origine de l'impossibilité du mouvement perpétuel de seconde espèce (Leff & Rex 1990).

La machine de Szilard confirme que l'entropie d'accessibilité peut être différente de l'entropie thermodynamique : lorsqu'on introduit une paroi au milieu du gaz à une molécule, on réduit l'entropie d'accessibilité de . En revanche on ne réduit pas l'entropie thermodynamique puisque le gaz ne cède pas de chaleur. Pour la machine de Szilard, l'entropie d'accessibilité peut être réduite en principe autant qu'on le veut. Il suffit de placer plusieurs parois à l'intérieur du récipient.

Pourquoi l'entropie de l'Univers augmente-t-elle ?[modifier | modifier le wikicode]

La loi de croissance de l'entropie suggère que l'entropie de l'Univers ne peut qu'augmenter, qu'il a commencé dans un macroétat de basse entropie, chaud mais très condensé, et que son expansion lui a permis de se refroidir tout en augmentant son entropie. Mais cette affirmation se heurte à deux difficultés :

  • Comme l'Univers est parfaitement isolé son entropie, si on on pouvait la définir, devrait être conservée.
  • Il n'y a pas vraiment de sens à parler du macroétat de l'Univers, parce qu'il n'y a pas de sens à parler de l'espace de ses microétats possibles. Il est dans un seul microétat, qu'on appelle parfois la fonction d'onde de l'Univers.

Mais il y a quand même du sens à dire que l'entropie de l'Univers augmente. On peut attribuer une entropie à ses diverses parties (étoiles, planètes, trous noirs, milieu interstellaire...) et constater que la somme de toutes ses entropies augmente. Mais quand on procède ainsi, on suppose que les parties sont statistiquement indépendantes, on ignore leurs corrélations. Or l'ignorance des corrélations conduit à surévaluer l'entropie totale. Si on connaissait le microétat de l'Univers, on connaîtrait aussi toutes les corrélations entre ses parties et on constaterait que l'entropie totale n'augmente pas. Elle resterait toujours égale à zéro. Mais connaître le microétat de l'Univers est évidemment impossible.

Références[modifier | modifier le wikicode]

Bennett, Charles H., The thermodynamics of computation - a review (Int. J. Theor. Phys. 21, 905-40, 1982, reproduit dans Leff & Rex 1990)

Diu, Bernard, Guthmann, Claudine, Lederer, Danielle, Roulet, Bernard, Éléments de physique statistique (1989)

Feynman, Richard P., Leçons sur l'informatique (1996)

Landauer, Rolf W., Irreversibility and heat generation in the computing process (IBM J. Res. Dev. 5, 183-91, 1961, reproduit dans Leff & Rex 1990)

Leff, Harvey S., Rex, Andrew F., Maxwell's demon, entropy, information, computing (1990)

Maxwell, James Clerk, Theory of heat (1871)

Sethna, James P., Statistical mechanics : entropy, order parameters and complexity (2018)

Szilard, Leo, On the decrease of entropy in a thermodynamic system by the intervention of intelligent beings (Zeitschrift für Physik, 1929, 53, 840-856, traduit dans Leff & Rex 1990)


Chapitre suivant : La théorie quantique des destinées multiples >>>