Mécanique , enseignée via l'Histoire des Sciences : l'information

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche

Une digression importante est la notion d'information.

A priori, dans un système dynamique sans bifurcation, la neg-information ou entropie (notée $ )est nulle. Mais il est des cas où une sensibilité aux conditions initiales donne une floppée d'orbites largement différentes dans l'espace des phases. Tout en restant déterministe, le système devient imprédictible. Le raisonnement "à la Gibbs" redonne cohérence à une approche thermodynamique, à priori très éloignée de la mécanique.

Sans vouloir prétendre à autre chose qu'une introduction à la notion d'information, cette digression sera bien utile lors de la présentation des systèmes dynamiques.

Ignorance et manque d'information $[modifier | modifier le wikicode]

Le manque d'information est la "mesure" de notre ignorance.

Soit N questions oui/non (on dit choix binaire) posées pour découvrir le schmilblick, alors c'est, grosso-modo, qu'il y avait W = 2^N choix possibles (penser dichotomie).

Appeler N, le manque d'information ou encore Entropie (notée $)et W, le Possible ( raccourci pour dire le nombre de cas possibles), alors la liaison entre $ et W est celle gravée sur la tombe de Boltzmann(1844 -1906), précurseur génial :

S = lg W bits , avec lg (x):= logarithme à base 2

Il ne reste plus alors qu'a débobiner ce fil conducteur. SHANNON(1916-2001 ) est le principal auteur de cette théorie de l'Information, complétée par Kolmogorov, Jaynes, etc.

Vers 1995, le qubit entre en scène : suite à une compréhension du paradoxe EPR ( Einstein, Podolsky, Rosen), du point de vue théorique (inégalité de Bell(1928-1990 ))puis expérimentale (Alain.Aspect(1947- )), Shor(1957- ) introduit l'algorithmique-quantique ; c'est le début de l'ère de la Quantum-Information. Au-delà du mythique ordinateur quantique, les retombées sont déjà nombreuses [la Q-cryptographie est déjà commercialisée]. Nous n'en dirons que qq mots.

Probabilités et $[modifier | modifier le wikicode]

Introduction[modifier | modifier le wikicode]

Soit une loterie à 8 numéros [ de 1 à 8], combien de questions binaires(oui/non) faut-il poser pour trouver le numéro sorti? Considérant que 8 = 2^3, en procédant par dichotomie, il faut poser trois questions. Et s'il y a W = 256 numéros , huit questions.

Plus généralement, pour une loterie à W numéros, W étant très grand, l'ensemble des numéros s'écrira en notation binaire à l'aide de lg W chiffres 0 ou 1. Le nombre de questions binaires à poser pour localiser un numéro quelconque sera donc $ = lg W mesuré en bits ( binary_digits)

Généralisation[modifier | modifier le wikicode]

La loterie consiste maintenant à choisir au hasard une lettre d'un livre de Emile Zola. On pourrait penser que $ = log2 26 , puisqu'il y a 26 lettres dans l'alphabet. Or, un peu de réflexion fait songer que ce nombre est plus petit, car les lettres w et z sont très peu courantes. En les éliminant a priori, on serait conduit à $= log2 24.

En fait nous voici confronté au vrai problème : étant donné M lettres , de probabilités p1, p2,pi, .., pM , avec somme pi = 1, quelle est la valeur moyenne du nombre de questions binaires à poser, appelée $, pour trouver une lettre parmi les M possibles.

La réponse est :


Enoncé : Entropie de SHANNON


La démonstration de ce théorème est due à SHANNON.

En voici une démonstration dans le cas simple M = 2 de deux lettres, disons A et B de probabilité p et q= 1-p.

Il doit être précisé ce que valeur moyenne veut dire :

La convention sera la suivante : on considère des mots de N lettres ( ici il y a donc 2^N mots ).

Soit $(N) le nombres de questions binaires pour trouver un mot.

On dira que l'$ par lettre est $ = $(N)/N quand N devient très grand ( à la limite, N-> infty).

Il y a bien 2^N choix , mais $ diffère de log2 2^N = N , CAR , si N est assez grand, la plupart des mots contiendront pN fois la lettre A et qN fois la lettre B.

Ne retenir que ces cas et éliminer les autres, considérés comme très peu probables.

Cette hypothèse étant admise, La pièce est jouée :

il ne reste plus que C(N, pN) cas et .

L'approximation de Stirling donne la réponse : $ = (-p.Ln p -q.Ln q) /Ln2 bits (faire ce petit calcul : la réponse est donnée plus bas (calcul des C(n,p)).

Dans le cas de M lettres, le même type de raisonnement donnerait au dénominateur , et cela donne bien la formule de Shannon.

Unités[modifier | modifier le wikicode]

Paragraphe inessentiel : Surtout ne jamais se bagarrer pour des questions d'unités ! ce n'est pas de la physique ; juste une histoire de convention pour s'entendre sur les valeurs numériques calculées ( ...accompagnées de leur unité par conséquent! ).

Soit z-> Lnz , le logarithme complexe ; il donne lieu à des problèmes d'unités : les angles doivent être comptés avec l'unité sans dimension , le RADIAN . Les autres unités degrés ou grades ou tours s'en déduisent.

De même pour les logarithmes usuels :

soit x un nombre réel positif : y tel que x = 10^y s'appelle l'OdG Exact (Ordre de Grandeur Exact), et la partie entière de y , l'OdG : y := log10 (x) bels .

Souvent on préfère une autre base : x = 2^y' , soit y' = log2 (x) = y .[1/log 2] bits ~ 3.3 y bits Le bit ( ou l'octave) est une unité plus petite que le bel, y' est donc évidemment plus grand que y.

Enfin certains préfèrent s'exprimer en népers ( ou := nats): y" = Ln x ~ log x /log e ~ 2.3 y népers

D'autre part, usuellement on se réfère à la mesure en octets (ou bytes) d'un code informatique : 1 octet = 2^8 =256 bits.

Les chimistes, pour une raison historique, continuent à s'exprimer en Joule/Kelvin = J/K : soit!

Retenir que une mole de bits = R.Ln2 = ~ 8.32*0.69 = 5.74 J/K [nous y reviendrons !].

Entropie statistique $ et entropie thermodynamique S(U,V)[modifier | modifier le wikicode]

Description d'un Système à l'équilibre[modifier | modifier le wikicode]

  • Un système thermodynamique est composé d'un grand nombre de particules ( typiquement pour une mole N ~ 6.10^23).L'espace des phases est donc de dimension 6N. Or, la connaissance de l'état d'équilibre MACROSCOPIQUE n'exige que la connaissance de v grandeurs macroscopiques ( Principe zéro de la thermostatique sur l'existence de la variance v ; pour un gaz pur , v= 2). Souvent le choix se porte sur le couple {volume V et énergie interne E}
  • Cependant, on sait bien en mécanique quantique,qu'à un niveau d'énergie E correspond une multiplicité d'états g(E). Citons deux exemples classiques :

N systèmes à 2 états d'énergie 0 et e : si E = pe , alors g(E)= C(N,p).

N oscillateurs harmoniques d'énergie (n+1/2) : si E =N/2 +q , alors g(E)= C(N+q-1,q).

  • Plus généralement, soit N(E) le nombre d'états d'énergie inférieure à E : N(E) croît de manière fantastique avec E : l'énergie n'étant en réalité définie qu'à une largeur dE près, le nombre d'états à considérer est N'(E).dE : = (E, V), et nous verrons dans un instant pourquoi S = k Ln , ce qui est la célèbre formule de Boltzmann(-).
  • Dans le cadre de la mécanique classique, la valeur de N(E,V) est donnée par la "discrétisation" de l'espace des phases. Nous admettrons que :

Soit Volume(E,V) le volume d'espace des phases délimité par l'hypersurface d'énergie E ; alors : N(E,V) = . Volume(E,V) , ceci si E >> h^2/(m (V/N)^(2/3)).

  • Si de plus les particules sont INDISCERNABLES, il faudra diviser par N! le nombre d'états possibles.

L'exemple le plus connu est celui du Gaz Parfait monoatomique : N(E) = V^N . E^(3N/2).C(N) où C(N) est une constante très petite aisément calculable.

Mise en contact thermique[modifier | modifier le wikicode]

  • Si on place en contact thermique deux systèmes S1 et S2 ( le tout isolé) , alors les états accessibles seront tous les états des niveaux E1 et E2 tels que E1+E2 = E et nous admettrons :
  • Postulat d'équiprobabilité : tous ces microétats ont une égale probabilité d'être réalisés.
  • Alors il en résulte que la proba pour que S1 possède l'énergie E1 ( donc S2 l'énergie E-E1)est :

p(E1) ~ .

soit une fonction extrèmement pointue, dont le sommet se situe à une abscisse E1* telle que :

Aux fluctuations près ( que l'on néglige, rappelons-le, en thermostatique), on DÉCLARE que l'état le plus probable est celui réalisé macroscopiquement.

  • Considérant que l'égalité précédente définit une grandeur thermométrique, il est loisible de choisir une température T* dite température statistique telle que : , k ne dépendant que de l'unité choisie.
  • Identifier immédiatement T* et T , température du gaz parfait :

en effet , on a vu pour ce gaz, donc 1/kT* = 3N/2E : en choisissant, pour valeur de k, la constante de Boltzmann, alors E = 3/2 N.kT* = 3/2 N.kT , ce qui identifie T* à T , donc à la température absolue (puisque cela a déjà été fait pour les Gaz Parfaits).

  • En comparant alors les deux formules : et , il vient :

S(E,V,N) = k Ln + f(V,N) , f étant quelconque.

  • Un raisonnement identique sur la variable V, conduit à la notion de Pression d'équilibre et donc cette fois

S(E,V,N) = k Ln + g(E,N) , donc g(E,N) = s(N) seulement.

  • Compte-tenu de l'extensivité de S , s(N) = N.s(intraparticulaire).

Ce dernier terme n'intervient que si la "particule" révèle par analyse plus fine des degrés de liberté internes observables, dont la prise en compte doit alors s'intégrer à N(E) donc .

=== Conclusion :

Enoncé : Défintion de Boltzmann

===

Interprétation du second principe[modifier | modifier le wikicode]

Dans le cadre de cette interprétation de l'entropie, le principe d'évolution n'a plus qu'un caractère probabiliste.

Reprenons l'exemple-type de l'exprience de Joule&Gay-Lussac : 2 compartiments égaux, contenant p particules dans C1 et N-p dans C2 aurait une réalisation C(N,p) , correspondant à une entropie S0 + k Ln C(n,p) : cet état sera "extrèmement beaucoup moins" probable que le cas C(N, N/2); la loi de probabilité est semblable à une gaussienne de largeur très grande en sqrt(N) , mais de largeur relative en 1/sqrt(N): très petite.

Le deuxième principe s'énonce maintenant :


Enoncé : deuxième principe de Boltzmann

Illustrations[modifier | modifier le wikicode]

  • Rappeler d'abord que l'incertitude sur E, appelée dE n'intervient pas, log (dE/E) étant négligeable. De ce fait pour N très grand, on perd la notion de dimension pour le nombre N(E,V) : pas étonnant alors que ce genre de situation conduise à un Logarithme. Manin en déduit qq réfexions assez profondes.
  • Comme 1/T = , le développement de se fera non pas par addition de Taylor, mais par multiplication par un facteur f dit de Boltzmann , qui sera l'objet d'une leçon ultérieure : f = exp(h/kT) . Mais d'ores et déjà, cela permet d'intéressantes remarques :
  • cas de N oscillateurs : exp(e/kT) = C(N+q, q+1) / C(N+q-1, q) = (N+q)/q = N/q +1 , soit la formule d'Einstein :

q/N = E/Ne = 1/[exp(e/kT)-1], et donc C(T) = dE/dT

Si les N oscillateurs se répartissent en Ni oscillateurs d'énergie ei , on retrouve la formule de Debye-Einstein :

E = Ni ei . 1/[exp(ei/kT)-1 ]: la capacité dE/dT va changer si les ei forment un pseudo-continuum : changement très intéressant à analyser mathématiquement.

  • cas des N spins 1/2 : énergie 0 ou e = 2 B/kT , on retrouve la formule de Brillouin(1/2) :

exp(e/kT) = C(N, p+1)/ C(n, p) = (N-p)/p = N/p -1, soit E = Ne /[exp(e/kT) +1 ] : l'essence du refroidissement adiabatique tant étudié par Giauque ( Nobel chimie 1949) réside dans cette formule.

  • Citer un OdG de Y.Rocard ( thermodynamique,p469) : l'entropie de changement d'état d'un métal desolide en liquide est positive et voisine de R , car le volume occupé par un atome localisé est V/N et donc N{solide}(V)~ (V/N)^N , alors que dans le liquide les particules "voient tout le volume" , mais il faut tenir compte de leur indiscernabilité: N{liquide}(V) = V^N/N! : on arrive aisément à la conclusion.
  • Voici plus fascinant: Pomérantchuk étudiant l'hélium III dégénéré a remarqué que cette fois la variation d'entropie est négative (-R Ln2)! donc il faut chauffer le liquide pour qu'il devienne solide ! Cela est compréhensible : à très basse température le liquide fermionique dégénéré occupe un seul état : = 1 . Pour le solide, les atomes localisés ont un spin quelconque ( sans champ magnétique), = 2^N ( cf pb ensParis 1980, Claire Lhuillier).
  • Last but not least , le calcul de C(N) pour les gaz parfaits n'est autre que le calcul de la classique constante de Sackur-Tetrode. On retrouve l'entropie de l'Argon_computer à 3ChS.

la boule B(n)[modifier | modifier le wikicode]

Plaçons ici cet encart : calculer le volume de la boule B(n) : nous verrons pourquoi cela a de l'importance, plu tard. Enoncé :

  1. Un cercle : le disque b(2) = Pi . R^2 et la circonférence s(2) = 2.b(2)/R
  2. Une boule : b(3) = Pi. R^n et s(3) = n.b(n)/R ;
  3. Une boule : b(n) et s(n) = n.b(n) ( on fait R=1).
  4. Trouver la suite b(n) (et bien sûr on aura s(n)). Retenir le cas TRES simple : s(6) = Pi^3

La réponse est :

  1. si n est pair n= 2p , alors b(2p) = Pi^p/p!
  2. si n est impair , formule analogue [ à écrire c'est un peu plus compliqué, mais pas "réellement" , il FAUT passer au-dessus de ces détails mesquins ]

Pourquoi ? parce que b(2p+2) = (Pi/p) .b(2p) .end. [il resterait à démontrer simplement cette formule ...donc à compléter].

  1. b(2) = Pi
  2. b(4) = b(2).Pi/2 = Pi^2/2
  3. b(6) = Pi^2/2.Pi/3 = Pi^3/6
  4. b(8) = Pi^4/6.4 = Pi^4/4!

Et voilà : à partir de n= 3,4 le nombre b(n) qui croîssait décroît : Pi/p est supérieur à 1 si p=3, mais inférieur à 1 si p=4 !

et la somme des b(2p) = exp(Pi) ! La somme des b(2p)(Iz)^p vaut : exp (I Pi z) = (-1)^z ; bizarre...à vérifier.

réflexions issues du Marcel.Berger.


L'idée est maintenant celle-ci (due à Manin ?) :

Quand n devient très très grand, il faut compter le nombre de solutions de l'inéquation sur les entiers naturels : a^2 + b^2 +c^2 + ... n fois < E^2 : ce nombre est W(2,E) quand E est TRES grand et n est TRES grand aussi ( évidemment E^2 >>> n ) : ce problème est relié aux nombres de Waring.

les C(n,p)[modifier | modifier le wikicode]

Plaçons ici cet encart : étude des C(n,p) quand p est très très grand p=x.n avec x fixé (inférieur à 1 , certes ! ) , càd C(n,x.n) :

alors C(n,xn) = n!/p!q! ~ n!/ (p/e)^p sqrt(p)sqrt(2Pi)q! = n!/q! . exp(x)^n /sqrt(2Pi) . 1/sqrt(x).1/sqrt(n) . 1/ (x^x)^n . 1/n^(xn) donc ~ exp x .exp y .exp 1. [1/(x^x .y^y)]. 1/sqrt(2Pi.x.y) et l'on constate que C(n,xn) = très grand = 1/sqrt(2Pixy) . 1/(x^x.y^y)^n

Souvent on considère : C(2n, x.2n) = catalan(n) si x =1/2 ;

  1. Souvent on considère : C(2n, n-k) avec k < sqrt(n) : alors, cela revient à dire x = 1/2 -eps avec eps = k/2n tout petit.Au total, on va retrouver la Gaussienne.

Cet exercice est TRES important ; car il fonde la thermodynamique [[ cf exercice : trouver la position du centre de gravité d'un gaz dans une boîte ( il serait amusant de le poser sur le disque , ou sur la sphère , etc. bigre : sur la surface du cube ... ? ) .

réflexions issues du Combinatorial_issues.

Retour[modifier | modifier le wikicode]

Mécanique, enseignée via l'Histoire des Sciences