Aller au contenu

Cosmologie/Version imprimable

Un livre de Wikilivres.

Ceci est la version imprimable de Cosmologie.
  • Si vous imprimez cette page, choisissez « Aperçu avant impression » dans votre navigateur, ou cliquez sur le lien Version imprimable dans la boîte à outils, vous verrez cette page sans ce message, ni éléments de navigation sur la gauche ou en haut.
  • Cliquez sur Rafraîchir cette page pour obtenir la dernière version du wikilivre.
  • Pour plus d'informations sur les version imprimables, y compris la manière d'obtenir une version PDF, vous pouvez lire l'article Versions imprimables.


Cosmologie

Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/Cosmologie

Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est incluse dans l'annexe nommée « Licence de documentation libre GNU ».

Le paradoxe d'Olbers

Nous allons commencer ce cours avec une question simple, qui est paradoxalement une excellente introduction à la cosmologie :

Pourquoi la nuit est-elle noire ?

Cette question peut sembler étrange, tant nous sommes habitués à voir les étoiles sur un fond noir. Bien que la lumière artificielle nous cache les étoiles et éclaire le ciel nocturne, nous savons que cette lumière cache le noir de la nuit, ses étoiles et la Lune. Mais pour un scientifique, même les choses évidentes sont dignes d'intérêt et demandent à être expliquées.

Les astronomes de l'antiquité n'étaient eux-mêmes pas surpris par l'obscurité de la nuit. Pour simplifier, ils pensaient les étoiles attachées à une sphère céleste, une sorte de sphère/coupole géante qui recouvre le ciel. S'ils supposaient que la Terre tourne sur elle-même, ils supposaient la sphère céleste fixe, expliquant le mouvement des étoiles au cours de la nuit et des saisons. Pour être plus précis, leur pensée utilisait plusieurs sphères : une pour le Soleil, une pour la Lune, une pour les étoiles proches, une pour les étoiles fixes des constellations (la plus lointaine) et bien d'autres. L'explication au noir de la nuit était que les étoiles étaient en nombre limitées et à des endroits bien précis, elles ne recouvraient pas entièrement le ciel. Beaucoup de savants avaient compris que ce modèle de sphères concentriques était un artifice de calcul utile, mais fondamentalement faux. Néanmoins, l'explication fondamentale au noir de la nuit restait valide : il n'y avait pas assez d'étoiles pour illuminer le ciel.

Terre dans la sphère céleste.
Sphères célestes emboîtées d'Anaximandre.

Avec les progrès de l'astronomie, et notamment l'arrivée des modèles géocentriques et héliocentriques, ce modèle de sphères emboîtées fût remis en cause. Pour les astronomes du moyen-âge et de la renaissance, les étoiles et astres n'étaient pas fixés sur des sphères proches, mais peuvent emplir tout l'espace. Leur vision de l'univers évolua vers un modèle d'univers infini, immobile, éternel, homogène. Par immobile, on veut dire que les effets de la gravité des astres s'annulent mutuellement sur de grandes distances. Chaque galaxie s'éloigne ou se rapproche de la nôtre, mais dans l'ensemble, ces différents mouvements se compensent et la moyenne des vitesses des galaxies est nulle. Par infini, on veut dire que l'univers a un volume infini : il n'a pas de début ni de fin, pas de frontières ou de bords, etc. Par éternel, on veut dire qu'il a un âge infini, qu'il n'a pas de début et de fin. Et par homogène, on veut dire que la répartition des étoiles est supposée globalement uniforme à grande échelle.

Mais les astronomes du moyen-âge et de la renaissance comprirent rapidement que le noir de la nuit était incompatible avec ce qu'ils savaient de l'univers.

Le paradoxe d'Olbers[modifier | modifier le wikicode]

Le modèle d'un univers infini, immobile, éternel, homogène est assez logique, limite intuitive, mais elle entre en conflit avec le noir de la nuit. Plusieurs savant ont en effet montré qu'un tel univers devrait avoir une nuit extrêmement lumineuse, et certainement pas une nuit noire. Cela peut paraitre étonnant, mais plusieurs astronomes l'ont déduit mathématiquement ou sur la base d'arguments logiques. C'est un paradoxe, appelé paradoxe d'Olbers, nommé ainsi en l'honneur d'Olbers , un des astronomes à avoir évoqué ce paradoxe. D'autres astronomes avaient autrefois évoqué ce paradoxe, comme Thomas Digges en 15764, Johannes Kepler en 1605 ou Edmond Halley au XVIIIe siècle, mais pas aussi explicitement qu'Olbers.

Nombre d'étoiles visibles depuis la Terre en fonction de leur distance.

Logiquement, on s'attend à ce que la nuit soit noire car les étoiles lointaines nous envoient directement moins de lumière que les étoiles proches. Après tout, la lumière émise par un objet est répartie dans toutes les directions, ce qui fait que plus un objet est lointain, moins on reçoit sa lumière. La luminosité perçue depuis la Terre diminue avec la distance, et plus précisément avec le carré de la distance. Mais il se trouve que le diamètre apparent fait de même. Le résultat est que pour une portion du ciel d'une surface bien précise, on peut mettre soit peu d'étoiles proches, soit beaucoup d'étoiles lointaines. Il se trouve que sous certaines conditions, respectées dans l'univers infini, éternel et homogène, les deux phénomènes se compensent et que la luminosité d'une portion du ciel est globalement constante.

La lumière des étoiles se déplaçant dans le vide intersidéral en ligne droite, les étoiles sont visibles depuis la Terre tant qu'il n'y a pas d'obstacle entre elles et la Terre. Or, si l'univers est infini, éternel et homogène, alors on est certain qu'en tout point du ciel, on tombera sur au moins une étoile. Si l’univers est infini, il contient une infinité d'étoiles. Et s'il existe depuis un temps infini, la lumière de toutes ces étoiles a eu le temps d'atteindre la Terre. En conséquence, le ciel devrait être éclairé par une infinité d'étoiles. La répartition homogène des étoiles assure que ces étoiles soient réparties équitablement sur la sphère céleste, ce qui fait que peu importe où on regarde de la voûte céleste, on devrait y voir une étoile à cet endroit.

Avec ces conditions, la baisse de quantité de lumière reçue avec la distance est compensée par le plus grand nombre d'étoiles observables. Le schéma ci-contre illustre ce fait. Pour résumer, le ciel devrait être empli de lumière, cachant totalement le Soleil. C'était pour eux un paradoxe, appelé paradoxe d'Olbers, du nom de l'astronome qui le formalisa (d'autres astronomes, comme Kepler, avaient cependant mentionné ce paradoxe dans certains écrits, mais pas aussi explicitement qu'Olbers).

Pour mieux comprendre le problème, nous allons reprendre un développement mathématique assez connu qui formalise l'argument d'Olbers.

Modélisation de la répartition des étoiles[modifier | modifier le wikicode]

En premier lieu, on découpe l'univers en sphères concentriques. Chaque couche, chaque sphère, a une épaisseur égale à la distance moyenne entre deux étoiles. De plus, chaque couche est à une distance de la Terre.

Illustration d'une couche sphérique dans la démonstration d'Olbers.

Calcul du nombre d'étoile dans chaque couche[modifier | modifier le wikicode]

En second lieu, on calcule le nombre d'étoiles présentes dans chaque "sphère", dans chaque coque.

Pour cela, on utilise l'hypothèse suivante :

H1 : Les étoiles sont uniformément réparties.

Cette hypothèse dit que la densité d'étoile, à savoir le nombre d'étoiles par unité de volume, est constante. Dans ce qui suit, nous allons la noter .

Chaque "sphère", chaque coque, contient un nombre d'étoile égal à son volume multiplié par  :

Le volume d'une coque est approximativement égal à sa surface S multipliée par son épaisseur (la distance moyenne entre deux étoiles, notée D), ce qui donne :

En combinant les deux équations précédentes, on a :

Calcul du flux de lumière émis par les étoiles d'une couche[modifier | modifier le wikicode]

En troisième lieu, on calcule le flux de lumière émis par une couche.

Pour cela, on part de l'hypothèse suivante :

H2 : Toutes les étoiles ont la même luminosité L.

On va utiliser cette hypothèse pour calculer le flux de lumière de chaque étoile. La physique du rayonnement nous dit que ce flux est égal à :

Le flux émis par toutes les étoiles d'une couche est la somme des flux de chaque étoile de la couche :

On utilise alors l'équation , démontrée plus haut :

On simplifie :

Cette équation nous dit que toutes les couches émettent la même quantité de lumière, ce qui n'est pas intuitif...

Calcul de la luminosité du ciel[modifier | modifier le wikicode]

En quatrième lieu, on combine la luminosité de toutes les couches pour trouver la luminosité totale du ciel.

Pour cela, on utilise les hypothèses suivantes :

H3 : Toutes les étoiles sont visibles depuis la Terre, il n'y a pas d'obstacle entre une étoile et la Terre.

Cela signifie qu'il faut prendre en compte toutes les couches dans le calculs.

H4 : L'univers est infini.

Le fait que l'univers est infini nous dit qu'il existe une infinité de couches concentriques.

H4 : L'univers est éternel.

Le fait que l'univers est éternel nous dit que la lumière de toutes les étoiles a eu le temps d'atteindre la Terre.

Illustration du paradoxe d'Olbers, en ajoutant progressivement chaque couche d'étoiles.

Il faut donc additionner la luminosité de toutes les couches existantes pour trouver le flux de lumière visible dans le ciel, en faisant une intégrale. Nous n'allons pas faire le calcul, car il se trouve qu'on obtient un résultat infini. Intuitivement, la troisième étape suffit à comprendre pourquoi : chaque couche a une luminosité finie et identique à celle des autres couches, et il y a une infinité de couches. Le ciel devrait être infiniment lumineux !

Les "solutions" du paradoxe d'Olbers[modifier | modifier le wikicode]

Divers savants se sont écharpés sur le paradoxe d'Olbers et de nombreuses réponses y ont été apportées. La démonstration d'Olbers n'ayant pas de problèmes mathématiques particuliers, il fallu se rendre à l'évidence : certaines hypothèses utilisées dans la démonstration sont fausses. Reste à trouver lesquelles.

On peut remettre en cause l'hypothèse de la luminosité fixe des étoiles, mais cela ne mène à rien. Même en supposant que certaines étoiles émettent peu ou pas de lumière, on se retrouve quand même avec une somme infinie.

Remettre en cause la répartition des étoiles a été envisagé, notamment dans des théories qui supposaient que la répartition des étoiles/galaxies était une distribution fractale. Ces théories sont cependant restées au stade de théories irréalistes, dont l'utilité est de montrer que telle piste de recherche est envisageable. La raison à cela est que les résultats empiriques ne suivent pas : dans ces théories, on devrait avoir des endroits du ciel qui seraient extrêmement lumineux, bien plus que le Soleil. Les observations astronomiques montrent de plus que si l'univers est assez hétérogène à petite distance, il est fortement homogène à grande distance.

Une première possibilité "crédible" était que les étoiles lointaines ne sont pas visibles depuis la Terre. Leur lumière est bien émise mais n'arrive pas à destination, reste à en trouver la raison. Une première explication fût que la lumière était absorbée par des nuages de gaz, de poussière, ou tout autre obstacle entre les étoiles et la Terre. Mais cette explication était incorrecte. L'obstacle en question absorbe le rayonnement de l'étoile, ce qui le chauffe. Or, tout corps chauffé émet un rayonnement dit de corps noir, dont l'intensité augmente avec la température. À force de chauffer, l'obstacle atteint une température d'équilibre, où le rayonnement absorbé par l'obstacle est intégralement réémis vers la Terre. L'obstacle est alors aussi lumineux que l'étoile qui le chauffe. Retour à la case départ.

La seule solution est que l'univers n'est pas infini et/ou qu'il a un âge fini. Les deux solutions font que l'on ne doit additionner que les couches les plus proches de la Terre, situées en-dessous d'un rayon maximal .

  • Si l'univers a un volume fini, il a de de facto un rayon maximal .
  • S'il a un âge fini , la lumière des étoiles très éloignées n'a pas eu le temps d'arriver sur Terre. Au-delà de la distance ( est la vitesse de la lumière), la lumière n'a pas encore pu arriver jusqu’à la Terre.



Le décalage vers le rouge (redshift)

Peu après la découverte des galaxies, à la moitié des années 20, les astronomes ont entrepris d'étudier les étoiles et les galaxies à partir de la lumière qu'elles émettent. Les observations actuelles utilisent soit des étoiles variables (des céphéides), soit des étoiles qui explosent : les supernovas. Plus précisément, les astronomes utilisent une classe bien précise de supernovas, qui ont pour particularité de générer systématiquement la même luminosité : les supernovas de type Ia. La luminosité perçue depuis la Terre de ces supernovas est proportionnelle à la distance.

Les astronomes analysent la lumière émise par les étoiles et galaxies, afin d'en déduire énormément de chose. Ils ne se contentent pas d'analyser la luminosité ou la couleur des objets, ils étudient le spectre de la lumière émise. Par spectre, on veut dire l'ensemble des fréquences présente dans la lumière émise. Les galaxies et étoiles émettent de la lumière qui est une superposition d'onde électromagnétiques aux fréquences très diverses. L'ensemble forme ce qu'on appelle le spectre de la lumière et il ressemble à ceci :

Spectre électromagnétique de l'étoile Altair (01F8GF7Z3Q28EJBC051YNTMJ2X).

Les trous dans le spectre, les bandes noires, s'expliquent par l'absorption de la lumière par les atomes. Les atomes absorbent la lumière dans des bandes de fréquence très précises, bandes qui sont des endroits très précis suivant l’élément chimique en question. La position des bandes permet de déterminer la composition chimique des étoiles/galaxies. L'étude des spectres de la lumière s'appelle la spectroscopie et astronomes l'utilisent beaucoup dans leurs observations astronomiques.

Mystery star spectrum
Illustration du redshift. La lumière émise par l'objet est à gauche, alors que la lumière reçue par l'observateur est à droite. On voit que la lumière émise est perçue comme décalée, du point de vue du spectre, entre émetteur et observateur.

Le redshift des galaxies[modifier | modifier le wikicode]

Si vous étudiez le spectre d'une galaxie, bous allez tomber sur la situation ci-contre. Les bandes semblent décalées par rapport à la fréquence habituelle. Les distances entre les bandes sont conservées, toutes les bandes semblent s'être décalées en bloc. Tout se passe comme si la lumière semble être décalée vers les basses fréquences (le rouge), comparée à sa couleur d'émission. Ce phénomène s'appelle le décalage vers le rouge ou encore le redshift.

Il est possible de quantifier le redshift par un paramètre mathématique noté . Pour quantifier ce phénomène, les physiciens utilisent le rapport entre le décalage des longueurs d'onde, et la longueur d'onde normale, attendue, celle mesurée sur Terre. Cette quantité, notée , est appelée le décalage vers le rouge, ou encore le redshift.

, avec la longueur d'onde actuelle, mesurée lors d'une observation, et la longueur d'onde lors de l'émission du rayonnement.

Les observations sur les galaxies ont montré la présence de ce décalage vers le rouge, sans pour autant pouvoir l'expliquer. Un point intriguant est que le redshift varie fortement avec la distance. Plus une galaxie est éloignée, plus son spectre sera décalé vers le rouge.

La loi de Hubble[modifier | modifier le wikicode]

Hubble a été le premier astronome à mettre en équation ce comportement, dans son article daté de 1929. Il étudia un grand nombre d'observations provenant de ses collègues, ainsi que les observations qu'il avait effectuées lui-même. De ces observations, il induit une loi statistique, du nom de loi de Hubble. Dans sa formulation la plus fiable, elle dit que pour les galaxies proches, le redshift est proportionnel à la distance.

Suite à la découverte de Hubble, de nombreuses campagnes d'observations ont suivi et se sont poursuivies durant des décennies. Un exemple de résultats obtenus est le suivant. On voit que la relation de Hubble

Hubble constant

La loi de Hubble ne fonctionne pas à longue distance[modifier | modifier le wikicode]

Insistons sur le fait que la loi de Hubble ne fonctionne que pour des objets cosmologiques "proches". Par proche, on veut dire que leur décalage vers le rouge est proche de 1, guère plus. Pour de tels objets astronomiques, la concordance est franchement bonne. Mais pour les objets astronomiques plus lointains, la loi de Hubble ne fonctionne tout simplement pas et la relation entre distance et redshift devient tout autre. Elle cesse d'être linéaire, et devient alors beaucoup plus complexe.

Idéalement, il faudrait trouver une équation du redshift qui marche tout le temps. De telles formules empiriques existent, de même que d'autres formules basées sur la théorie de la relativité générale. Les scientifiques ont des logiciels dédiés pour faire les calculs et on peut trouver des calculateurs en ligne pour. Par exemple, vous pouvez utiliser ce site pour faire quelques calculs de distance en fonction du redshift :

L'interprétation de la relation redshift-distance[modifier | modifier le wikicode]

Maintenant que nous connaissons la relation entre distance et redshift, encore faut-il l'expliquer. Et c'est là que le bât blesse ! Pour expliquer le décalage vers le rouge, il existe plusieurs solutions. Mais, comme nous allons le voir, les explications classiques sont rapidement mises en défaut.

L'explication par l'effet Doppler[modifier | modifier le wikicode]

Pour expliquer le décalage vers le rouge des galaxies, Hubble pensa à l'effet Doppler-Fizeau, que les étudiants en physique connaissent bien. Quand un objet s'éloigne de nous à une certaine vitesse, la fréquence de la lumière qu'il émet baisse et la lumière parait rougie par rapport à la normale. Et réciproquement, un objet qui s'approche émettra une lumière plus bleuie, dont la fréquence a légèrement augmenté. Le redshift est alors causé par la vitesse de l'objet qui s'approche ou s'éloigne.

Illustration de l'effet Doppler-Fizeau.

La loi de Hubble proprement dite[modifier | modifier le wikicode]

Il existe une formule qui associe la vitesse de l'objet et le décalage vers le rouge, qui est différente selon que l'on travaille en physique newtonienne, en relativité restreinte ou en relativité générale. La physique classique donne la formule suivante, entre la vitesse de l'objet en mouvement et le décalage vers le rouge qui en découle.

On peut réécrire la formule précédente de manière à obtenir la vitesse de l'objet à partir de son redshift :

En utilisant cette formule et en combinant celle-ci à ses observations sur le redshift, Hubble formula une loi statistique, du nom de loi de Hubble, dit que la vitesse d'éloignement d'une galaxie est proportionnelle à sa distance. Le facteur de proportionnalité nommée paramètre de Hubble, il est noté H.

, où v est la vitesse extrapolée du redshift, d la distance de la galaxie et H le facteur de Hubble.

La formule précédente est en réalité une extrapolation basée sur l'hypothèse que le redshift est bien causé par une vitesse. En réalité, ce qu'Hubble avait observé, c'est que le redshift était égal à :

La loi de Hubble est approximative, car les galaxies ne s'éloignent pas toutes à la même vitesse. Certaines vont plus vite, d'autres moins vite. Il faut faire la différence entre la vitesse donnée par la loi de Hubble, qui est une moyenne, et la différence avec la vitesse moyenne.

Distance v velocity

L'interprétation en termes de vitesse était tout simplement fausse et il n'a pas fallu longtemps pour s'en rendre compte. Appliquées de manière naïve à des galaxies lointaines, les redshift observés correspondent à des vitesses supérieures à celle de la lumière dans le vide. De telles vitesses supraluminiques sont un signe que la cause du décalage vers le rouge demande une explication relativiste. Une manière de sauver le tout serait d'utiliser des formules d'effet Doppler tirées de la relativité restreinte, plus adaptées aux forts redshifts, mais nous verrons plus bas que de telles explications ne marchent pas.

L'expansion de l'univers[modifier | modifier le wikicode]

Expansion de l'univers, image d'artiste.

L'interprétation initiale, à base d'effet Doppler, indique que les galaxies s'éloignent toutes de nous, comme si nous étions au centre de l'univers, et que les galaxies tentaient de le fuir. La conclusion est claire : l'univers s'étend, gonfle. Les astronomes ont appelé ce phénomène l'expansion de l'univers. Pourtant, on aurait dû s'attendre à l'inverse : la gravité est censée rapprocher les galaxies les unes des autres.

A cause de l'expansion de l'univers, il est évident que l'univers devait être plus "petit" par le passé (plus précisément, la portion de l'univers qui correspond aujourd'hui à l'univers observable). En renversant l'écoulement du temps, l'univers se contracte progressivement, et on peut facilement imaginer qu'après un certain temps, tout le contenu de l'univers soit rassemblé en un seul point : la singularité initiale. L'univers serait alors né d'une dilatation de cette singularité initiale, dilatation qui porte le nom de big-bang.

Mais cette vue de l'esprit pose de nombreux problèmes mathématiques. En effet, cette singularité implique que de nombreux calculs dépendant des distances donnent des divisions par zéro. Par exemple, le calcul de la pression, de la température, de la densité, ou d'autres paramètres physiques ne sont pas calculables. Tout ce que peuvent faire les scientifiques, c'est étudier ce qu'il s'est passé quelques secondes ou minutes après le temps qui correspond à cette singularité hypothétique. Les calculs actuels ne donnent plus de résultats crédibles au-delà d'une certaine durée, la durée de Planck. Celle-ci vaut environ secondes.

L'expansion de l'univers est une manière d'expliquer les observations de Hubble, qui est compatible avec l'interprétation du redshift comme un effet Doppler. Cependant, le fait que les redshift donnent des vitesses supra-luminiques semblent indiquer qu'il faut expliquer tout cela avec une théorie relativiste. Voyons ce que la relativité peut dire là dessus.

L'explication par le décalage vers le rouge gravitationnel[modifier | modifier le wikicode]

Une autre explication est le décalage vers le rouge gravitationnel, aussi appelé décalage d'Einstein. Il s'agit d'une conséquence de la relativité générale, observé expérimentalement. Sans rentrer dans les détails, il dit que la fréquence de la lumière change quand elle traverse un champ gravitationnel. Précisément, si on prend une masse M qui génère un champ de gravité, la lumière bleuit en se rapprochant de la masse, elle rougit en s'en éloignant.

Décalage vers le rouge gravitationnel.

Vous avez peut-être pensé que c'était le candidat idéal pour expliquer le redshift des galaxies, mais c'est en réalité le pire. La gravité de la terre ou de notre galaxie est une mauvaise explication : elle a tendance à faire bleuir la lumière qui s'approche de nous, sans compter que les calculs montrent que cela n'explique pas la relation redshift-distance.

En réalité, la lumière émise par les galaxies se rapproche de nous, elle rougit, ce qui signifie qu'elle s'éloigne de la source de gravité responsable du décalage vers le rouge. Et le redshift est observé pour toutes les galaxies, dans tous les sens, peu importe où on regarde sur la voute céleste. Cela signifie que la distribution des masses serait franchement bizarre, avec la terre au beau milieu d'un creux gravitationnel. Chose étrange, sachant qu'on est dans une galaxie et que la distribution des galaxies est assez homogène dans l'univers... Le décalage d'Einstein n'est pas la solution.

L'hypothèse de la lumière fatiguée[modifier | modifier le wikicode]

Les deux idées précédentes font que l'univers n'est pas statique :, il est en expansion avec l'explication par l'effet Doppler, en contraction gravitationnelle avec le décalage d'Einstein. Mais l'intuition nous ferait plutôt penser à un univers statique, sans expansion ni contraction. Aussi, diverses théories ont tenté d'expliquer les redshifts galactiques sans recourir à un univers en expansion/contraction.

La théorie de la lumière fatiguée est une ancienne hypothèse visant à expliquer le redshift et sa variation en fonction de la distance avec un univers statique. L'idée est que sur de longues distances, la lumière interagit avec la matière, ce qui lui fait perdre de l'énergie, ce qui réduit sa fréquence et la décale vers le rouge. Plus la distance est grande, plus la lumière a interagit avec la matière et plus le décalage vers le rouge serait grand. L'idée a été formalisée dans de nombreuses théories différentes, qui se distinguaient par des détails. Mais l'idée de base est la même pour toutes ces théories.

Mais elle a de nombreux défaut, comme le fait que les images de galaxies lointaines devraient être plus floues qu'observé, du fait de la dispersion de la lumière lors des interactions lumière-matière. Cela ne veut pas dire que la lumière n'a pas interagit avec la matière lors de son trajet, mais cela ne suffit pas à expliquer la loi de Hubble.

De plus, d'autres observations vont contre ce mécanisme. Par exemple, la luminosité angulaire des galaxies devrait être constante dans un univers sans expansion avec lumière fatiguée, alors que les observations montrent qu'elle diminue avec la distance. La formalisation de cet argument a donné naissance au test empirique nommé le test de luminosité surfacique de Tolamn (Tolman surface brightness test). Et les résultats de ce test ont montré que les théories de la lumière fatiguée ne tiennent pas la route. D'autres observations plus complexes à expliquer vont à l'encontre des théories de la lumière fatiguée, comme des observations sur les courbes de luminosité des Supernovae, mais surtout : les observations du fond diffus cosmologique qu'on verra dans quelques chapitres.

Tolman surface brightness test

L'explication du redshift cosmologique par la relativité générale[modifier | modifier le wikicode]

Aussi bizarre que cela puisse paraitre, les savants de l'époque n'étaient pas étonnés de voir apparaitre loi de Hubble, ni des galaxies aux vitesses supra-luminiques. La théorie de la relativité générale, qui existait déjà à l'époque, avait déjà permis de prédire que de telles situations pouvaient arriver. Et la relativité générale fournit un cadre explicatif parfait pour rendre compte des observations sur le redshift. De plus, la théorie de la relativité générale, appliquée à l'univers, explique parfaitement le paradoxe d'Olbers vu au chapitre précédent.

L'interprétation du redshift comme un effet Doppler son aujourd'hui abandonnée, au profit d'une explication totalement différente, basée sur la relativité générale. Dans cette interprétation, la relation est toujours valable, c'est l'équation pour le redshift qui est fausse. Et nous allons détailler cette explication dans le chapitre suivant.


L'expansion de l'univers

Analogie de l'expansion de l'univers.
Expansion de l'univers.

Les équations de la relativité expliquent le redshift cosmologique avec le concept d'expansion de l'univers : les corps matériels de l'univers s'éloignent les uns des autres au fil du temps. Les interprétations de la relativité disent que l'expansion de l'univers ne provient pas d'un mouvement des objets dans l'espace, mais d'une modification de la manière de calculer les distances avec le temps. L'image qui est souvent donnée dans la vulgarisation scientifique compare l'univers avec un gâteau au raisin qui gonfle progressivement, les raisins étant les galaxies.

Le facteur d'échelle, les distances, et le facteur d'échelle[modifier | modifier le wikicode]

Mettre en équation le phénomène d'expansion de l'univers est assez trivial. Du fait de l'expansion, toute distance entre deux points sera multipliée par un facteur multiplicatif après une durée t. Pour calculer ce facteur multiplicatif, les physiciens font intervenir ce qu'on appelle le facteur d'échelle, noté . Dans ce qui va suivre, nous allons supposer que nous prenons toutes les mesures dans un référentiel d'origine O, et que nous suivons la distance d'un objet matériel en fonction du temps. Nous allons comparer les distances entre un instant et un instant ultérieur. L'augmentation des distances à cause de l'expansion de l'univers se calcule comme suit :

Le rapport des facteurs d'échelle est un coefficient multiplicateur qui dit par combien les distances ont été multipliées entre l'époque actuelle et l'instant . Dit autrement, le facteur d'échelle est ce par quoi il faut diviser les distances actuelles pour obtenir les distances à l'instant .

Notons que le facteur d'échelle est sans dimensions (il n'a pas d'unité).

Pour simplifier les calculs, on considère souvent que le facteur d'échelle vaut 1 à un instant idéal pour simplifier les calculs. Sous cette hypothèse, l'équation précédente se simplifie :

L’interprétation de cette équation est assez simple : si le facteur d'échelle augmente de X %, les distances font de même.

Les distances propres et comobiles[modifier | modifier le wikicode]

Différence entre distance comobile et distance propre. Sur ce schéma, les deux points sont immobiles, hors effet de l'expansion de l'univers. On voit que l'expansion éloigne les deux points en distance propre, si on mesure la distance avec une règle, sans tenir compte de la grille. Mais si on mesure la distance comobile, c'est à dire la distance mesurée avec les unités de la grille, la distance reste la même.

Reprenons la définition du facteur d'échelle vue précédemment :

Il est possible de réécrire la formule précédente comme suit :

Les distances et sont égale à une distance corrigée de l'influence des facteurs d'échelle. et . Elle peut s'interpréter comme la distance qu'auraient deux objets s'il n'y avait pas d'expansion. Elle est appelée la distance comobile. À contrario, la distance tient compte de l'expansion, qui augmente les distances entre deux objets. Les distances qui tiennent compte de l'expansion, opposées aux distances comobiles, sont appelées des distances propres. Par définition, les distances propres sont celles que l'on peut mesurer, qui ne sont pas corrigées de l'influence du facteur d'échelle.

Il existe une définition alternative de la distance comobile. C'est la distance mesurée à l'instant où .

Expansion de l'Univers illustré avec deux galaxies : on voit que la distance comobile montrée par la grille ne change pas, mais que la distance propre augmente.

L'augmentation des distances liée au facteur d'échelle n'est pas très intuitive. Dans le monde réel, une expansion a un centre, un point central d'où s'éloignent les autres. Mais avec l'expansion de l'univers, ce n'est pas du tout le cas. Peu importe où l'on soit dans l'univers, tous les autres objets semblent s'éloigner de nous. Un habitant de la Terre verra toutes les galaxies lointaines s'éloigner de la Terre, mais un habitant de la galaxie d'Andromède verra lui aussi l'ensemble des galaxies s'éloigner de lui et non de la Terre ! C'est cette particularité qui fait que l'on doit recourir à un facteur d'échelle pour expliquer l'expansion.

Schéma de l'expansion de l'univers. Les deux premiers schémas illustrent l'effet de l'expansion sur un ensemble de points, dont un point bleu et un point vert. Les deux schémas du bas montrent cette expansion du point de vue d'un observateur situé respectivement au point bleu, puis au point vert. On voit que chaque observateur voit les autres points s'éloigner de lui.

Le lien entre vitesse et facteur d'échelle[modifier | modifier le wikicode]

La distinction entre distance comobile et propre peut aussi se faire pour les vitesses, volumes, surfaces et autres. Par exemple, il est possible de calculer une vitesse propre en dérivant la distance propre. Pour cela, on pourrait partir de la définition de la distance propre et en calculer la dérivée.

Par souci de lisibilité, nous noterons parfois la dérivée première d'une variable , à savoir , comme ceci : . Le remplacement ne sera pas systématique, la notation étant plus courante et donc plus claire. La notation sera utilisée quand la notation est trop lourde, par exemple pour simplifier les formules de ce style : en .

Mais les calculs seraient alors un petit peu longs, bien que pas difficiles. Pour éviter ce petit désagrément, nous allons ruser. À la place, nous allons calculer la dérivée de la distance comobile. La dérivée de la distance comobile est naturellement une vitesse, appelée la vitesse comobile. Elle correspond à la vitesse qu'aurait un objet s'il n'y avait pas d'expansion. Elle traduit le fait que les objets s'éloignent ou se rapprochent même sans expansion. Sachant que la distance comobile est définie par , on a :

On utilise la formule de la dérivée d'un quotient :

On simplifie par  :

Les deux termes : et sont techniquement des vitesses. Mais elles sont écrites en coordonnées comobiles, dans le référentiel où . Ce sont donc des vitesses que l'on ne peut pas mesurer. Pour passer dans le référentiel général, on doit multiplier par le facteur d'échelle :

Le terme n'est autre que la vitesse propre, la vitesse totale de l'objet qui incorpore les effets de l'expansion.

Cette équation peut se reformuler comme suit :

Le terme est ce qu'on appelle la vitesse locale. C'est la vitesse qu'a l'objet quand on retire l'effet de l'expansion, mais qu'on prend quand même en compte le facteur d'échelle. En effet, la vitesse comobile est mesurée dans un référentiel particulier, où . Et ce référentiel est situé arbitrairement dans le temps, pas forcément dans le temps présent. Pour obtenir la vitesse indépendante de l'expansion, on doit multiplier la vitesse comobile par , afin de tenir compte de la multiplication des distances au cours du temps.

On voit que la vitesse propre est la somme de deux vitesses. Une vitesse indépendante du facteur d'échelle et une autre qui dépend du facteur d'échelle. En clair, une vitesse indépendante de l'expansion et une qui y est proportionnelle. La première est une vitesse locale indépendante de l'expansion, alors que le second terme a pour origine l'expansion. Nous allons l'appeler la vitesse d'expansion, bien que ce ne soit pas une vitesse.

En réalité, les seules vitesses sont des vitesses comobiles. Qui dit vitesse dit déplacement d'un objet dans l'espace, donc dans les coordonnées comobiles. L'extension de l'espace n'est pas une vitesse, elle correspond à une modification de l'espace lui-même, pas quelque chose qui se passe dedans, ce n'est pas le déplacement d'un objet matériel ou d'une onde. Si la vitesse locale ne peut dépasser la vitesse de la lumière, la vitesse de l'expansion n'est pas contrainte par car ce n'est pas une vitesse.

Le paramètre de Hubble[modifier | modifier le wikicode]

Tous les développements précédents permettent de retrouver la loi de Hubble. Pour les objets éloignés, la vitesse locale est négligeable par rapport à la vitesse d'expansion. Il est donc utile, de supposer la vitesse locale nulle. Sous cette hypothèse, l'équation précédente se simplifie comme suit :

La loi de Hubble ressemble trait pour trait à l'équation précédente, jugez plutôt :

En combinant les deux équations, on trouve :

La loi de Hubble est donc un pur dérivé de l'expansion de l'univers. La vitesse mesurée par la loi de Hubble est donc une pseudo-vitesse liée à l'expansion, pas une vitesse propre. Cela explique pourquoi certaines galaxies très lointaines semblent s'éloigner de nous plus vite que la lumière avec la loi de Hubble. En réalité, il ne s'agit pas d'une vitesse propre, limitée par la vitesse c. En réalité, il s'agit d'une pseudo-vitesse liée à l'expansion de l'espace, c'est la vitesse d'expansion. Ainsi, la vitesse supraluminique des galaxies lointaines provient de la vitesse de l'expansion et ne reflète pas une véritable vitesse supraluminique.

Au passage, cela explique pourquoi la loi de Hubble ne fonctionne pas pour les grandes distances. Les développements précédents permettent de calculer une vitesse instantanée, calculée avec des dérivées. Mais dans les faits, rien ne dit que le paramètre de Hubble H est constant dans le temps. Si celui-ci a varié, alors la loi de Hubble finit fatalement par être fausse. La variation de H a été assez lente dans le temps, ce qui fait que la loi de Hubble marche bien avec les galaxies proches, pour lesquelles la lumière a mis peu de temps à nous parvenir. Pour les galaxies lointaines, H a varié durant le temps de trajet de la lumière, ce qui fausse le lien entre distance et redshift.

Notons une grande différence entre la loi de Hubble , qui est une relation fondamentale, et la loi de Hubble liée au redshift. La relation entre vitesse et redshift dans un univers relativiste est assez complexe. Aussi, l'application de la loi de Hubble aux observations astronomique est assez complexe.

Le paramètre de Hubble est la rapidité instantanée de l'expansion de l'univers[modifier | modifier le wikicode]

L'équation précédente peut se reformuler comme suit :

Comme on le voit, la démonstration précédente nous donne une nouvelle interprétation du facteur de Hubble : c'est la dérivée logarithmique du facteur d'échelle.

Pour rappel, la dérivée logarithmique d'une fonction se note et est définie par :

Elle porte ce nom car elle est égale à la dérivée du logarithme de la fonction initiale :

Cela nous permet de faire une remarque importante dans la suite du cours : l'intégrale d'une dérivée logarithmique est tout simplement le logarithme de la fonction. Nous ferons ce raccourci très souvent dans le cours.

Pour le dire plus clairement, le facteur de Hubble est le taux, du pourcentage auquel l'expansion a lieu. Pour information, la dérivée s’interprète comme la vitesse de l'expansion de l'univers, la vitesse à laquelle croît le facteur d'échelle. Plus la vitesse de l'expansion est grande, plus l'univers grandit vite et s'étend rapidement. De même, la dérivée seconde de est l'accélération de l'expansion de l'univers : plus elle est grande, plus l'expansion devient de plus en plus rapide avec le temps. Le facteur de Hubble est donc la vitesse de l’expansion divisée par le facteur d'échelle, soit le taux de variation du facteur d'échelle. Intuitivement, il indique approximativement si le facteur d'échelle augmente de 5 %, 10 % ou 20 % par unité de temps. Si H vaut 0,015, cela signifie que les distances augmentent de 1,5 % par seconde.

Faites attention à ne pas confondre la vitesse de l'expansion avec la vitesse d'expansion qui est la vitesse d'un objet acquiert à cause de l'expansion.

Maintenant, partons de l'équation précédente et intégrons-la :

On prend l'exponentielle et on réorganise l'équation :

Cette équation permet de calculer le facteur d'échelle quand on connait le facteur de Hubble. L'utilité de cette équation est qu'estimer le facteur de Hubble au cours du temps est possible, même si c'est par des moyens indirects. Les observations astronomiques permettent d'avoir une estimation précise de la valeur actuelle du facteur de Hubble, ainsi que de ses valeurs anciennes. Alors que l'évolution du facteur d'échelle ne l'est pas.

Le redshift cosmologique[modifier | modifier le wikicode]

On vient de démontrer la loi de Hubble , ce qui signifie qu'elle est valable en tout lieu, à tout instant. Mais n'en déduisez pas que les formules du redshift vues dans le chapitre précédents le sont. En réalité, la relation redshift-distance n'est pas celle obtenue en combinant la loi de Hubble avec la formule de l'effet Doppler, elle est un peu différente, même si elle ressemble. Dans cette section, nous allons montrer comment l'expansion de l'univers explique le décalage vers le rouge, sans recourir à un effet Doppler.

Effect of the stretching of light on the light wavefront.

Le redshift cosmologique est causé par une modification du facteur d'échelle, valable quel que soit le référentiel. En effet, l'expansion de l'univers impacte aussi la longueur d'onde de la lumière, qui est une distance comme une autre. En clair, il influence la lumière lors de son trajet, mais n'a rien à voir avec la vitesse de l'objet émetteur.

Si une onde lumineuse est émise avec la longueur d'onde à un instant , sa longueur d'onde à un instant sera égale à :

La fréquence d'une onde lumineuse étant proportionnelle à sa longueur d'onde, on a alors :

La relation entre redshift et facteur d'échelle[modifier | modifier le wikicode]

Il est possible de démontrer une relation entre le facteur d'échelle et le redshift. Pour cela, partons de la définition du redshift z :

On utilise alors l'équation , réécrite comme ceci :

En combinant les deux équations précédentes, on déduit la valeur du décalage vers le rouge en fonction du facteur d'échelle. Dans ce qui suit, on suppose que est l'instant d'émission de la lumière, alors que l'observation a lieu à l'instant .

Posons que le facteur d'échelle actuel vaut 1. L'équation obtenue est alors la suivante :

La relation entre redshift et paramètre de Hubble[modifier | modifier le wikicode]

Quelques manipulations algébriques à partir des équations précédentes permettent d'exprimer le facteur de Hubble en fonction du redshift. Pour cela, partons de l'équation suivante :

Prenons la dérivée par rapport au temps :

Le calcul de la dérivée donne :

On applique la formule  :

On multiplie les deux côtés par

Maintenant, utilisons l'équation  :

La relation entre redshift et temps écoulé depuis l'émission d'un photon[modifier | modifier le wikicode]

L'équation précédente permet de calculer quel temps temps s'est écoulé depuis qu'un photon a été émis, en fonction de son redshift. Pour cela, prenons l'équation précédente et isolons dt, en multipliant par . On obtient alors le temps dt qu'il faut pour obtnir un incrément de redshift dz.

Intégrons cette formule entre O et z :

Il est possible de mettre l'équation précédente sous la forme suivante :

, avec
Le signe moins disparait car z est négatif, vu que t=0 correspond à maintenant et que z est localisé dans le passé.

Évidemment, résoudre cette équation demande de connaitre E(z), ce qui demande d'avoir un modèle cosmologique sous la main. En utilisant le modèle actuel, on trouve la relation suivante :

Temps de parcours d'un photon et redshift.

La relation entre redshift et distance d'une source[modifier | modifier le wikicode]

La distance parcourue par la lumière lors de son trajet n'est autre que le temps précédent multiplié par la vitesse c. La distance en question s'appelle la light-travel distance.

, avec

Remarquez que le terme n'est autre que la distance telle que calculée par la loi de Hubble. Si on note celle-ci , on a :

, avec

Mais il s'agit là d'une distance un peu trompeuse. Il s'agit de la distance parcourue par le photon, mais pas de la distance actuelle à laquelle se situe la source qui a émis la lumière. En effet, l'expansion agit tout le temps et fait que la source s'est éloignée pendant que le photon faisait son voyage.

Il est cependant possible de calculer la distance comobile parcourue par le photon, ce qui demande de diviser le contenu de l'intégrale par le facteur d'échelle a(t), ce qui donne :

, avec

Or, , ce qui fait que l'équation précédente se simplifie en :

On peut obtenir la distance actuelle entre source et récepteur de la lumière en multipliant l'équation précédente par le facteur d'échelle.

Pour exploiter cette équation, toute la difficulté consiste à connaitre E(z), et donc de savoir comment le facteur de Hubble a évolué dans le temps.

Le redshift des galaxies proches et la loi de Hubble[modifier | modifier le wikicode]

Nous allons maintenant supposer que le facteur de Hubble H est resté constant. Dans ce cas, les équations précédentes se simplifient un peu. Les équations pour le temps de parcours et la distance sont donc égales à :

En faisant l'intégrale, on trouve :

En reformulant retrouve la loi de Hubble :

En clair, la loi de Hubble ne fonctionne que dans les cas où le paramètre de Hubble n'a pas trop varié entre l’émission du photon et sa réception. En clair, elle marche pour des petites distances et/ou des durées assez courtes, ce qui correspond aux galaxies proches. Mais pour les observations de galaxies très éloignées, cette formule ne tient juste plus la route. Plus E(z) s'éloigne de 1, plus la relation précédente donne des résultats erronés. L'observation de galaxies à fort redshift et le calcul de leur distance doit se faire avec l'aide d'un modèle cosmologique qui dit comment E(z) a évolué dans le temps, sous peine d'obtenir des résultats invalides.

L'accélération de l'expansion de l'univers[modifier | modifier le wikicode]

Il est intéressant de savoir si l'expansion se fait à vitesse constante, ou si l'expansion accélère/décélère. Pour simplifier les calculs, nous allons omettre la vitesse de la lumière et nous concentrer sur la vitesse de l'expansion de l'univers. Cela ne change rien aux résultats que nous allons obtenir vu que la vitesse de la lumière est constante : sa dérivée est donc nulle, ce qui la rend inutile dans les calculs de dérivée qui vont suivre.

L'accélération de l'expansion en fonction du paramètre de Hubble[modifier | modifier le wikicode]

Une première étape pour savoir si l'expansion ralentit ou accélère, est de calculer l'accélération de l'expansion de l'univers. Cette accélération est simplement égale à la dérivée de la vitesse de l'expansion.

En développant, on a :

Or, est simplement la vitesse d'expansion calculée avec la loi de Hubble, ce qui donne :

Le tout se simplifie en :

L'accélération de l'expansion en fonction du facteur d'échelle[modifier | modifier le wikicode]

Une autre manière de quantifier l'accélération de l'expansion est de calculer la dérivée du facteur de Hubble. Le raisonnement derrière cette définition est assez simple. Le facteur de Hubble dit à quel taux les distances dans l'univers augmentent avec le temps. Si la dérivée est nulle, le facteur de Hubble est constant : l'expansion n’accélère pas plus qu'elle ne décélère. Inversement, une dérivée non-nulle nous dit comment le facteur de Hubble varie, et donc comment évolue l'expansion. Si la dérivée est positive, l’expansion accélère, et elle décélère pour le cas négatif.

Sachant que , la dérivée du facteur de Hubble est la suivante :

On utilise alors la formule

Ce qui se simplifie, en utilisant le facteur de Hubble :

On peut réorganiser les termes pour obtenir l'équation suivante :

On peut en profiter pour identifier cette équation avec l'équation , ce qui donne :

Le facteur de décélération[modifier | modifier le wikicode]

Il est courant que les cosmologistes utilisent ce qu'on appelle le facteur de décélération, un nombre calculé à partir du facteur de Hubble. Celui-ci est positif si l'expansion est décélérée, négatif si elle accélère, et reste constant si la vitesse d'expansion reste constante. Par définition, ce facteur de décélération q vaut :

En utilisant la formule , la formule précédente se reformule comme suit :

On utilise alors la formule  :

Quelques manipulations algébriques donnent alors :

Les formules précédentes peuvent se réécrire sous la forme ci-dessous. Cette formule sera importante dans la suite du cours, car les deux termes et peuvent se calculer assez facilement. Dans les chapitres sur les équations de Friedmann, nous verrons que le premier terme se calcule à partir de la première équation de Friedmann et le second terme à partir de la seconde équation de Friedmann. Autant dire que l'étude des modèles cosmologiques est fortement facilitée quand on connaît cette relation.

Une autre formulation est la suivante :

La formule se démontre facilement si on calcule la dérivée suivante :

En combinant avec les équations précédentes qui donnent le facteur de décélération en fonction de , on retrouve l'équation précédente.

Le lien entre expansion et facteur de Hubble[modifier | modifier le wikicode]

L'expansion, de part son action sur les distances, entraîne naturellement une variation des surfaces, volumes et densités. Prenons par exemple une sphère de rayon et de volume  : son rayon augmentant avec le facteur d'échelle, son volume fera de même. Quelques calculs triviaux nous disent que son volume évolue avec le facteur d'échelle selon la formule suivante, avec le volume de la sphère à l'instant .

Cette équation nous permet de déduire le rapport entre le facteur de Hubble et l'expansion des volumes. Pour cela, commençons par calculer la dérivée du volume :

Divisons ensuite par V, ce qui revient à diviser par :  :

On simplifie par et par  :

La formule précédente peut aussi s'écrire de manière moins compacte comme ceci : .

Cette équation sera réutilisée plus tard dans le cours, quand nous démontrerons l'équation du fluide de Friedmann.


Le facteur de Hubble

Le facteur de Hubble est d'abord né des observations de Hubble, et précisément de la loi de Hubble, dit que la vitesse d'éloignement d'une galaxie est proportionnelle à sa distance.

, où v est la vitesse extrapolée du redshift, D la distance de la galaxie et H un facteur de proportionnalité nommée paramètre de Hubble.

Nous avons vu qu'en réalité, cette relation est approximative et ne marche pas sur les galaxies lointaines. La véritable définition est plus profonde : le facteur de Hubble est un taux d'accroissement du facteur d'échelle, définit par :

Vous avez peut-être déjà entendu parler de la constante de Hubble pour désigner le paramètre de Hubble. C'était le terme utilisé au tout début de la cosmologie moderne, on pensait que H était constant, mais on sait aujourd'hui que ce n'est pas le cas. Ce n'est donc pas une constante, d'où le fait que nous parlerons de paramètre de Hubble dans de cours. La valeur actuelle de H est sous notée , et nous utiliserons cette notation dans ce cours.

La mesure du facteur de Hubble[modifier | modifier le wikicode]

Formellement, le paramètre de Hubble est égal à une vitesse divisée par une distance, ce qui fait qu'elle est l'inverse d'un temps. Le paramètre de Hubble H a donc pour unité , soit l'inverse d'une seconde. Mais dans les faits, les astronomes l'expriment en kilomètres par seconde par mégaparsecs (km/s/Mpc ou . Pour rappel, le mégaparsec est une unité astronomique qui vaut environ 3,26 millions d'années-lumière. Avec de telles unités, le paramètre de Hubble actuel, mesuré aujourd'hui, vaudrait approximativement :

L'interprétation de cette valeur est que chaque seconde, l'univers grandit de 70 kilomètres par mégaparsecs.

Les mesures du paramètre de Hubble sont assez nombreuses, mais elles semblent converger vers la valeur de 70 mentionnée plus haut, avec cependant des incertitudes de mesure non-négligeables. Pour vous donner quelques exemples, les graphiques ci-dessous et ci-contre vous donnent les valeurs mesurées pour plusieurs compagnes d'observation assez anciennes. Vous voyez que la valeur n'est pas connue avec certitude.

Mesures du paramètre de Hubble par plusieurs campagnes scientifiques.

À l'heure actuelle, les cosmologistes ne savent pas expliquer pourquoi les mesures du paramètre de Hubble sont aussi différentes. Ce qui est sûr, c'est que le résultat dépend fortement de la méthode de mesure. Sans rentrer dans les détails techniques, il existe plusieurs méthodes indirectes pour estimer le paramètre de Hubble, qui estiment les distances des objets lointains en analysant la luminosité des supernovæ, des galaxies, des céphéides (des étoiles pulsatiles), et d'autres objets astronomiques. Et suivant la méthode utilisée ou l'objet observé, le paramètre de Hubble n'a pas la même valeur. Peut-être que les mesures sont entachées d'un biais systématique qui dépend de la mesure, peut-être que la valeur du paramètre de Hubble varie suivant la distance des objets considérés, peut-être que l'hypothèse d'un univers isotrope et homogène doit être abandonné, peut-être qu'une nouvelle physique se cache derrière ces résultats disparates, personne ne le sait.

Les valeurs précédentes sont obtenues avec des objets situés à des distances très différentes, pour lesquels la lumière a mis du temps à nous parvenir. Aussi, vous avez peut-être pensé que les différences dans les mesures sont liés aux variations du paramètre de Hubble. Manque de chance, les scientifiques ne sont pas stupides et ils ont pris cela en compte. Les valeurs des graphiques précédents sont des valeurs qui corrigent l'évolution du paramètre de Hubble, à partir d'hypothèses très crédibles sur son évolution.

Le temps de Hubble[modifier | modifier le wikicode]

Comme dit plus haut, le paramètre de Hubble est l'inverse d'un temps. Ce temps en question est appelé le temps de Hubble et nous le noterons . Par définition, il vaut :

Il vaut environ 14,4 milliards d'années et cette valeur est très proche de celle actuellement admise par les scientifiques pour l'âge de l'univers (13,6 milliards d'années environ). Précisons que si les estimations actuelles nous disent que les deux sont assez proches, mais rien ne nous dit qu'ils sont exactement identiques. Les mesures et estimations sont en effet entachées d'une marge d'erreur assez large, ce qui fait que les deux mesures peuvent sembler se confondre alors qu'elles sont peut-être légèrement différentes.

Le temps de Hubble n'est pas l'âge de l'univers, attention à ne pas confondre ! Un bon moyen de s'en rendre compte est de regarder ce qui se passe dans un univers où serait constant, mais positif et non-nul. Le temps de Hubble serait alors constant, alors que l'univers serait en expansion.

La théorie nous dit que temps de Hubble et âge de l'univers n'ont pas de raison de coïncider. Dans la plupart des théories mathématiques de la cosmologie, et âge de l'univers ne coïncident qu'en un seul instant bien précis. À tous les autres instants, ces deux valeurs sont différentes. Dans de nombreuses théories cosmologiques, le temps de Hubble est plusieurs fois inférieur ou supérieur à l'âge de l'univers.

La seule exception est un modèle théorique appelé le modèle (oui, le nom de cette théorie est bien une formule mathématique...), dans lequel le temps de Hubble et l'âge de l'univers se confondent à tout instant. Mais c'est l'exception qui confirme la règle. À l'heure actuelle, on ne sait pas si ce modèle décrit correctement l'univers actuel. Aussi, les scientifiques ne savent pas si la coïncidence actuelle entre temps de Hubble et âge de l'univers en est une ou est valide en permanence.

Le lien entre temps de Hubble et facteur de décélération[modifier | modifier le wikicode]

Le temps de Hubble a un lien assez important avec le facteur de décélération. Pour nous en rendre compte, prenons la formule suivante pour le facteur de décélération :

L'interprétation de cette équation est assez simple, si on regarde comment évolue la dérivée . Le cas où correspond au cas où le temps de Hubble augmente au même rythme que l'âge de l'univers, ce qui signifie que les deux sont égaux. Or, nous verrons dans quelques chapitres que ce n'est possible que si l'expansion de l'univers se fait à vitesse constante. Plus précisément, cela implique que le facteur d'échelle augmente linéairement avec le temps (), donc que sa dérivée première soit constante et sa dérivée seconde nulle.

Les cas où et correspondent alors à une expansion supra- et infra-linéaire. Or, le facteur de décélération est définit de manière à valoir 0 pour un univers en expansion linéaire (à vitesse constante), positif pour une expansion supra-linéaire et négatif pour une expansion infra-linéaire. On voit que pour passer de la dérivée au facteur de décélération, il faut retrancher 1.

Une autre manière de réécrire cette formule, qui sera utile dans la suite du cours, est la suivante :

Le facteur de décélération moyen[modifier | modifier le wikicode]

Rien n'implique que le facteur de décélération soit une constante. Il peut très bien varier dans le temps, si le facteur de Hubble varie lui aussi. Rien n’empêche d'avoir un univers dont l'expansion accélère, puis stoppe et décéléré, par exemple. Il est alors utile de calculer un facteur de décélération moyen, qui est définit par :

, avec l'âge de l'univers.

On utilise alors l'équation  :

L'intégrale d'une somme est la somme des intégrales :

On calcule la dernière intégrale :

On développe :

L'intégrale et la dérivée s'annulent si on néglige les constantes d'intégration, ce qui donne :

On voit que le facteur de décélération moyen dépend de l'âge de l'univers et du facteur de Hubble actuel, rien de plus. C'est un résultat très intéressant, qui permet soit de calculer le facteur de décélération moyen à partir de l'âge de l’univers, ou de faire l'inverse. L'âge de l'univers vaut donc :

Plus haut, nous avons dit que l'âge de l'univers qui fait actuellement consensus est proche du temps de Hubble. Si on en croit l'équation précédente le seul moyen d'avoir est que . En clair, l'univers a eu une expansion approximativement constante, en moyenne. Mais attention, cela ne signifie pas que l'expansion s'est faite de manière régulière tout le temps. Le consensus actuel est que l'univers a alterné entre décélération et d'expansion. Mais nous reparlerons de cela plus tard dans le cours, quand nous parlerons des modèles cosmologiques, de l'accélération de l'expansion de l'univers et de l'inflation.Toute la difficulté de la cosmologie est d'établir comment s'est déroulée l'expansion.

Le rayon de Hubble[modifier | modifier le wikicode]

Le rayon de Hubble, noté , est la distance que parcourt la lumière pendant le temps de Hubble. Il vaut donc, par définition :

Notons que cette dernière formule est une tautologie sans grande importance, sans sens physique. Dans la plupart des modèles cosmologiques, temps de Hubble et rayon associé n'ont pas de sens physique et ne sont que des conventions. Par exemple, si on suppose que le facteur de Hubble est constant, le rayon de Hubble est constant, alors que l'univers est en expansion.

Un autre point important est que le rayon de Hubble n'est en rien la limite au-delà de laquelle la lumière n'a pas eu le temps de nous parvenir (en termes scientifiques, ce n'est pas un horizon). On peut parfaitement voir des objets qui sont situés au-delà du rayon de Hubble, et les astronomes l'ont déjà fait. Bref, temps et rayon de Hubble sont des conventions.

La relation entre redshift et rayon de Hubble[modifier | modifier le wikicode]

On a vu que pour les faibles redshift, la loi de Hubble donne une relation entre distance et redshift qui s'écrit comme suit :

Le terme n'est autre que l'inverse du rayon de Hubble, ce qui donne :

Rappelons que cette relation ne vaut que pour des distances assez faibles, des galaxies proches.

L'évolution du rayon de Hubble[modifier | modifier le wikicode]

On peut s'amuser à calculer dans quelles circonstances le rayon de Hubble est constant. Pour cela, prenons sa dérivée :

On utilise alors la formule qui relie la dérivée du temps de Hubble au facteur de décélération :

En combinant les deux équations précédentes, on trouve :

Cette dérivée s'annule quand . En analysant la dérivée, on remarque que le rayon de Hubble se contracte pour , augmente quand , et reste stationnaire pour . En clair, le rayon de Hubble augmente quand l'expansion qui ralentit, diminue quand l'expansion accélère, reste constante si l'expansion se fait à taux constante.

Le rayon de Hubble et les vitesses de fuite supra-luminiques[modifier | modifier le wikicode]

Au-delà du rayon de Hubble, le produit dépasse la vitesse de la lumière. En effet, calculons la distance à laquelle la vitesse calculée avec la loi de Hubble vaut c :

On a alors :

Prenons n'importe quel objet qui émet de la lumière vers nous. La lumière va a une vitesse c vers nous, mais l'expansion fait que la lumière s'éloigne de nous à une vitesse qui se calcule avec la loi de Hubble. La vitesse des photons venant vers nous, en coordonnées non-comobiles, est donc de .

Pour les objets au-delà du rayon de Hubble,  : ils s'éloignent de nous plus vite que la lumière. Ce qui fait que leur lumière ne devrait pas nous rejoindre si le rayon de Hubble restait statique, car elle est supérieure à c. Mais il faut maintenant prendre en compte que le rayon de Hubble grandit à la vitesse qu'on vient de calculer plus haut. Ce qui fait que ces photons dont se retrouvent quand même dans la sphère de Hubble, s'ils respectent la condition suivante :

Utilisons la formule suivante :

Combinons les deux équations précédentes :

Simplifions :

En clair, le rayon de Hubble finit par rattraper ces photons, ce qui fait qu'ils finissent par arriver chez nous.

Le rayon comobile de Hubble[modifier | modifier le wikicode]

Notons que l'on peut calculer le rayon de Hubble comobile, c'est à dire en supprimant l'effet de l'expansion. Ce rayon n'a pas plus de sens physique que le rayon de Hubble normal. Il est définit comme toute distance comobile, en divisant par le facteur d'échelle. Cela donne :

En utilisant la formule et en simplifiant, on trouve :

Le rayon comobile est constant si la dérivée du facteur d'échelle est constante, ce qui correspond à une expansion linéaire, où le facteur d'échelle augmente proportionnellement avec le temps.


L'univers observable

L'univers observable est la portion de l'univers que nous pouvons observer, compte tenu de la limite de la vitesse de la lumière. Des objets situés très loin ne peuvent pas être vus pour une raison très simple : la lumière qu'ils émettent n'a pas eu le temps de nous parvenir. La distance maximale à laquelle nous pouvons voir des objets (sans tenir compte d'éventuelles limitations techniques) dépend de l'âge de l'univers. S'il faut un temps supérieur à l'âge de l'univers pour nous parvenir, il nous est actuellement impossible de les voir, ce qui n'est pas le cas pour des objets situés plus près. Cette distance maximale est donc le rayon de l'univers observable. L'ensemble des points situés à la distance maximale des objets observables, à savoir la surface de l'univers observable, porte un nom : c'est l'horizon cosmologique.

Le rayon de Hubble[modifier | modifier le wikicode]

On pourrait croire que le rayon de Hubble est une bonne estimation de la taille de l'univers observable. Pour rappel, ce rayon de Hubble est définit à partir du facteur de Hubble comme suit :

, avec c la vitesse de la lumière et le temps de Hubble définit par .

Il s'agit de la distance parcourue par la lumière pendant le temps de Hubble, lui-même définit comme l'inverse du facteur de Hubble. Mais le rayon de Hubble n'est malheureusement pas une bonne estimation du rayon de l'univers observable, pas plus que le temps de Hubble ne donne l'âge de l'univers. En effet, le rayon de Hubble n'est en rien la limite de l'univers observable : on voit des objets sont situés au-delà et on peut calculer leur redshift ou tout autre mesure pertinente.

Pourtant, sa définition semble indiquer que le rayon de Hubble soit la limite de l'univers observable. Par définition, tout ce qui est au-delà du rayon de Hubble va plus vite que la lumière. Donc la lumière émise au-delà de ce rayon n'est pas censée nous atteindre. Sauf que ce raisonnement par du principe que le rayon de Hubble est stable. Or, rappelez-vous l'équation du chapitre précédent, qui dit comment évolue le rayon de Hubble :

Pour notre univers, tout semble indiquer qu'il augmente avec le temps. Et cela explique pourquoi on peut voir des objets qui se déplacent "plus vite que la lumière", dans le sens où l'expansion les éloignait de nous plus vite que la lumière. La raison est que, vu que le rayon de Hubble grandit, certains photons hors du rayon de Hubble finissent par y rentrer. Ils sont en quelque sorte rattrapés par le rayon de Hubble et nous finiront donc par les voir une fois arrivés sur Terre. Par contre, les objets qui ont émis cette lumière s'éloignent bien de nous plus vite que la lumière et restent au-delà du rayon de Hubble.

Le rayon de l'univers observable[modifier | modifier le wikicode]

Le calcul du rayon cosmologique actuel est assez simple sur le principe, mais compliqué en pratique. Une méthode assez simple se base sur la vitesse d'éloignement de l'horizon, à savoir la vitesse à laquelle l'horizon cosmologique s'éloigne de nous. Une fois cette vitesse connue, il suffit de l'intégrer sur l'âge de l'univers.

La vitesse d'éloignement du rayon observable est définie par :

, avec le rayon de l'univers à l'instant t.

On réutilise l'équation du chapitre précédent, qui donne la vitesse en fonction de la distance: . Dans le cas de l'horizon cosmologique, la distance est égale au rayon de l'univers et la vitesse locale est égale à la vitesse de la lumière, ce qui donne :

On peut reformuler le tout en divisant par , ce qui donne :

On peut alors intégrer cette expression sur l'âge de l'univers pour obtenir le rayon de l'horizon cosmologique, du moins dans certaines conditions. Faire les calculs demande de connaître la loi d'évolution du facteur de Hubble . Mais dans les faits, elle nous est inconnue et on n'en a que quelques bribes. La théorie ne nous est pas d'un grand secours et le seul cas que l'on peut calculer simplement est celui où le facteur de Hubble est constant. En général, les modèles cosmologiques les plus simples supposent que le facteur d'échelle suit une loi de puissance, de type , ce qui fait que l'équation peut se résoudre avec quelques développements analytiques. Mais des modèles plus réalistes ne suivent pas vraiment une loi de puissance, ce qui complique les calculs. Pour nous éviter de longs calculs fastidieux, nous allons étudier le cas général, en utilisant quelques raisonnements astucieux.

Le rayon comobile de l'univers observable[modifier | modifier le wikicode]

Une autre façon de faire les calculs est de passer par l'intermédiaire du rayon comobile. Pour rappel, ce rayon comobile est le rayon corrigé de l'influence du facteur d'échelle (et donc de l'expansion). Il vaut, par définition : .

La vitesse comobile est la dérivée de ce rayon comobile, qui est égale à :

On peut alors factoriser le rayon comobile  :

On simplifie :

En injectant l'équation dans la précédente, on a :

En développant, on trouve :

On voit que la dérivée est égale à ce qu'on appelle la vitesse comobile de la lumière. Par définition, la vitesse de la lumière est de , mais il s'agit d'une vitesse propre. On peut calculer sa vitesse comobile en divisant par le facteur d'échelle, ce qui n'est autre que le premier terme de l'équation précédente. . En intégrant l'équation précédente sur l'âge de l'univers, on a la distance comobile de l'horizon, celle à laquelle se situait l'horizon cosmologique quand la lumière de l'horizon a été émise. On se retrouve alors avec une équation très générale, qui marche même quand le facteur de Hubble est variable.

Seule la vitesse comobile de la lumière devant être prise en compte. On trouve alors que le rayon comobile se calcule avec la formule suivante, avec l'âge de l'univers :

Il est possible de simplifier fortement la formule précédente en faisant intervenir une variable particulière, appelée le temps conforme, définie par . On peut voir ce temps conforme comme l'équivalent de la distance comobile, mais pour les durées. Il n'a pas vraiment d'interprétation physique digne de ce nom et sert plus d'intermédiaire pour les calculs. Avec le temps conforme, la formule précédente devient alors :

On peut voir la formule précédente comme la généralisation de la formule , mais où le temps est remplacé par le temps conforme.

Le rayon actuel de l'univers observable[modifier | modifier le wikicode]

On peut obtenir la distance propre par un calcul très simple, à partir de la distance comobile. Le passage de la distance comobile à la distance propre se fait simplement en multipliant par . On obtient alors la distance propre suivante :

Dans l'équation précédente, on peut factoriser la vitesse de la lumière, ce qui donne :

Comme pour le rayon comobile, on peut voir la formule précédente comme la généralisation de la formule , mais où la durée est remplacée par la valeur temporelle .

Les intégrales précédentes ne sont pas solubles telles quelles. Il faut préciser comment le facteur d'échelle évolue avec le temps, sans quoi les intégrales ne peuvent pas être calculées exactement. Manque de chance, la loi d'évolution du facteur d'échelle nous est inconnue. Nous sommes obligés de postuler des fonctions particulières, en espérant qu'elles collent au mieux aux observations. Nous ferons cela plus en détail dans le chapitre sur les modèles cosmologiques.


L'évolution de la matière

L'univers est peuplé de matière et de rayonnement. La matière est essentiellement composée de particules massives : baryons, quarks, électrons, etc. Pour plus de simplicité, on peut supposer que la matière de l'univers est un gaz. Cette hypothèse n'est pas si abusive vu l'état actuel de l'univers : 10% de la matière sert à fabriquer des étoiles, le reste étant localisé dans des nébuleuses et des nuages moléculaires dont la température ne dépasse pas la dizaine de degrés au-dessus du zéro absolu. L'univers est donc essentiellement composé de gaz. Évidemment, ce gaz de matière a une pression, un volume, une densité, une énergie, etc. Il reste de plus soumis aux lois de la thermodynamique. L'expansion va cependant faire varier continument sa densité (l'univers se dilue avec l'expansion), sa pression, sa température, etc. Dans ce chapitre, nous allons voir comment évolue ce gaz cosmologique en utilisant les relations de la thermodynamique, sous la contrainte de la loi de Hubble.

Rappels sur le gaz parfait[modifier | modifier le wikicode]

Dans ce chapitre, et dans tous les chapitres suivants, nous allons supposer que la matière qui remplit l'univers est ce qu'on appelle un gaz parfait. Pour rappel, un gaz parfait est un gaz qui respecte la loi suivante :

, avec P la pression, V le volume, N le nombre de particules, T la température et la constante de Boltzmann.

La densité de particules[modifier | modifier le wikicode]

On peut simplifier cette équation en utilisant la densité de particule, à savoir la quantité de particule présente par unité de volume, qui sera notée . Si on note V un volume et N le nombre de particules qu'il y a dedans, la densité de particules est définie par la formule suivante :

En combinant les deux équations précédentes, on a :

, avec la densité de particules.

L'expansion affecte surtout les termes de droite, à savoir la densité de particule et la température. Cette influence se répercute ensuite sur la pression. Notons que cette équation fonctionne pour un gaz d'atomes, de molécules, mais aussi pour décrire le rayonnement, la lumière, qui n'est autre qu'un gaz parfait de photons ! Mais avant d'étudier le cas du rayonnement, ce qui sera le fait du prochain chapitre, nous allons étudier le cas d'un gaz parfait composé de matière, de particules avec une masse, soumis à l'expansion.

L'énergie moyenne par particule d'un gaz parfait[modifier | modifier le wikicode]

La température d'un gaz parfait est la somme des énergies cinétiques de chaque particule. La physique statistique nous donnent des formules pour relier la température et l'énergie cinétique moyenne d'une particule du gaz. Les formules en question dépendent du gaz, mais elles prennent toutes la forme d'une équation de la forme :

Le coefficient est appelé la capacité calorifique spécifique à volume constant. C'est l'énergie qu'il faut pour augmenter d'un degré la température du gaz, en considérant que son volume et sa masse sont constantes. La capacité calorifique est considérée comme constante avec un gaz parfait. Mais dans le monde réel, elle n'est pas totalement constante et peut varier suivant la température et la pression. Les variations les plus soudaines de la capacité calorifique impliquant souvent des transitions de phase elles-mêmes liées à des baisses/hausses de température.

A partir de l'équation précédente, on peut calculer la densité d'énergie et l'énergie moyenne par particule. L'énergie moyenne par particule se calcule en divisant l'équation précédente par N, ce qui donne :

En supposant que la capacité calorifique est constante, on peut reformuler cette équation comme suit :

On peut aussi calculer l'énergie moyenne par particule à partir de l'équation . Il suffit de la diviser par N, ce qui donne :

Le terme le plus à droite n'est autre que l'inverse de la densité de particule. En faisant le remplacement, on a :

La densité d'énergie d'un gaz parfait[modifier | modifier le wikicode]

Partons maintenant de la formule suivante :

La formule précédente, une fois divisée par le volume, donne ceci :

En clair, la densité d'énergie, l'énergie moyenne par unité de volume, est proportionnelle à la pression. On peut alleer plus loin en reformulant l'équation précédente en fonction de la température. En combinant l'équation précédente avec l'équation , on a :

Le cas d'une expansion isotherme[modifier | modifier le wikicode]

Dans ce qui suit, nous allons supposer que le nombre de particules est conservé. En clair, le nombre de particules matérielles dans l'univers est une constante : de nouvelles particules ne peuvent pas apparaître, pas plus que des particules existantes ne peuvent disparaître. Dans les faits, la constance du nombre de particules est quelque peu fausse : les lois de l’infiniment petit permettent l'apparition ou la disparition de particules, des conversions entre particules, et bien d'autres réactions. Et si ces réactions conservent la masse et l'énergie, la conservation du nombre de particules est loin d'être acquise. Par exemple, les réactions nucléaires peuvent faire disparaître des particules (tout en conservant la masse et l'énergie). Ou encore, les photons peuvent être absorbés ou émis entre interagissant avec la matière. Mais cela ne signifie pas que la constance des particules n'est pas une bonne approximation. Au global, on suppose que les réactions qui font apparaitre des particules s'équilibrent a peu-près avec celles qui en font disparaitre.

Vu que le volume de l'univers varie selon , la densité de particule varie donc comme :

La densité de particule est donc reliée au facteur d'échelle par l'équation

De même, on suppose que l'énergie est constante. L'énergie est conservée, ce qui parait raisonnable pour un univers remplit uniquement de matière. Cette hypothèse est clairement plus raisonnable que la constance du nombre de particule, la conservation de l'énergie étant vraiment importante en physique, là où faire apparaitre ou disparaitre des particules est fait régulièrement dans l'importe quel accélérateur de particule.

L'hypothèse de conservation de l'énergie, combinée à la conservation du nombre de particule, a des conséquences immédiates. En effet, cela impacte l'énergie par particule. Vu que l'énergie est conservée en même temps que le nombre de particule, pas de changement. L'énergie par particule n'est pas censée varier, vu que énergie et nombre de particules sont constants. Et vu que l’énergie par particule est proportionnelle à la température, alors la température est elle aussi constante. Dans un univers dont l'énergie est conservée, la température moyenne reste constante ! Vu que toutes les équations précédentes dépendent uniquement de la densité d'énergie et de la température, cela signifie qu'il nous reste à trouver le comportement de la densité de particules pour déterminer comment évolue le gaz parfait.

On peut maintenant déterminer la pression, maintenant que l'on connait le comportement de la température et de la densité de particule. Pour rappel, on a . Sachant que la température est constante, mais que la densité de particule diminue, alors la pression diminue avec l'expansion. On a alors :

Sachant que la densité d'énergie est proportionnelle à la pression, elle doit évoluer en elle aussi.

Pour résumer, on a :

  • une énergie par particule constante ;
  • une température constante ;
  • une densité d'énergie qui diminue comme  ;
  • une pression qui diminue comme .

Le cas d'une expansion adiabatique, où la chaleur est conservée[modifier | modifier le wikicode]

Dans ce qui précédait, nous sommes parti du fait que l'énergie était conservée, et avons étudié l'évolution de la pression et de la température. Dans cette section, nous allons supposer qu'elle ne l'est pas, et nous allons établir des équations plus générales sur les gaz parfaits en expansion cosmologique. Nous allons étudier le cas d'une expansion adiabatique, à savoir dans laquelle il n'y a pas de conversion d'énergie en chaleur. La quantité d'énergie thermique de l'univers reste la même, mais pas forcément sa température. Il s'agit d'une modélisation simple, mais réaliste de l’expansion. En théorie, l'univers ne s'étend dans rien et l'expansion du gaz parfait qu'il contient ne pousse aucune paroi. Dans ces conditions, la pression du gaz n'exerce aucun travail susceptible de transformer sa chaleur en énergie cinétique. Son énergie thermique, sa chaleur, est donc globalement conservée si on omet les réactions chimiques.

Partons de l'équation précédente :

, avec un coefficient constant.

Si on suppose que N est constant, la dérivée de l'équation précédente donne :

Or, la thermodynamique nous dit qu'un gaz parfait en expansion adiabatique respecte la formule suivante :

En identifiant les deux équations précédentes, on trouve :

On peut reformuler la loi des gaz parfaits comme suit, en isolant la température :

En combinant les deux équations précédentes, on trouve :

Cette expression dit que la température et le volume évoluent globalement de la même manière.

L'évolution de la température lors de l'expansion[modifier | modifier le wikicode]

On utilise alors la relation  :

On divise des deux côtés par k :

On prend alors l'intégrale, en utilisant la formule  :

On note et on réorganise les termes constants :

On applique la formule  :

On prend l'exponentielle des deux côtés :

L'exponentielle d'une somme est le produit des exponentielles () :

On pose :

Ou encore :

Pour un gaz monoatomique, on a , ce qui fait que la température de la matière varie donc comme l'inverse du carré du facteur d'échelle :

La relation entre pression et facteur d'échelle[modifier | modifier le wikicode]

On peut combiner l'équation précédente avec l'équation vue plus haut qui donne la pression en fonction de la température et du facteur d'échelle :

On peut combiner l'équation précédente avec l'équation qui donne la pression d'un gaz parfait en fonction de sa température, vue précédemment :

Le tout se simplifie en :

L'évolution de la densité d'énergie lors d'une détente adiabatique[modifier | modifier le wikicode]

Partons de l'équation de la conversation de l'énergie lors d'une détente adiabatique :

, avec E son énergie, P sa pression et V son volume.

On divise alors par dt :

Par définition, , avec la densité d'énergie. De plus, on a vu que . En faisant le remplacement, on a :

On utilise alors la formule du produit d'une dérivée sur le terme de gauche :

On réorganise les termes :

On simplifie :

En divisant par , on a :

On utilise alors la relation  :

Le facteur de Hubble étant égal à , l'équation précédente se réécrit comme suit :

Intégrons des deux côtés. Vu que  :

Ce qui signifie que, d'après les règles des puissances :

De cette équation, on peut déduire que :



L'évolution du rayonnement

La majorité du rayonnement dans l'univers forme un gaz de photons homogène et isotrope (nous détaillerons cette remarque quand nous aborderons le rayonnement de fond diffus cosmologique). Autrement dit, c'est un rayonnement de corps noir. Ce gaz de photons possède diverses propriétés, qui sont affectées par l'expansion : il possède une densité d'énergie, une température, et bien d'autres paramètres. Formellement, le rayonnement forme un gaz parfait, ce qui fait qu'on peut réutiliser les équations du chapitre précédent. Pour un gaz de photons, on peut prouver que . Les équations du chapitre précédent donnent alors :

(énergie par particule)
(densité d'énergie)

Pour les équations qui dépendent du facteur d'échelle, on a :

Dans la suite de ce chapitre, nous allons expliquer plus en détail d'où proviennent ces équations, ce qu'elles signifient physiquement et en donner des démonstrations alternatives.

L'évolution de la température du rayonnement avec l'expansion[modifier | modifier le wikicode]

L'équation principale de ce chapitre dit que la température du rayonnement diminue au même rythme que l'augmentation du facteur d'échelle. Ainsi, le rayonnement né dans les premiers instants de l'univers, refroidit progressivement au fur et à mesure que l'univers s'étend.

Malheureusement, l'équation est rarement utilisable telle quelle. En effet, les facteurs d'échelle et ne sont pas connus et ne peuvent pas se mesurer. L'idéal est de remplacer les facteurs d'échelle par une grandeur qui se mesure. Le redshift fonctionne à merveille, d'autant qu'on sait qu'il est relié au facteur d'échelle par les équations vues il y a quelques chapitres. Dans ce qui suit, on suppose que est l'instant d'émission de la lumière, alors que l'observation a lieu à l'instant . Avec cette convention, on sait que . En faisant le remplacement dans l'équation précédente, on trouve :

Précisons que cette équation vient de la convention . Mais avec la convention inverse, à savoir , on trouverait l'équation inverse, à savoir :

L'évolution de la densité d'énergie d'un gaz de photons avec l'expansion[modifier | modifier le wikicode]

Illustration de la loi de Planck.

Un gaz de photons est formellement décrit par la fameuse équation de Planck, que nous ne détaillerons pas ici. Celle-ci donne tout simplement la densité d'énergie des photons qui possèdent une fréquence f, dans un gaz de photons de température T. Et cette équation contient un terme, la fréquence, sensible au facteur d'échelle. Voici cette équation de Planck :

La distribution des photons suivant leur fréquence est illustrée par le schéma de droite. Celui-ci montre que le pic d'intensité, à savoir la fréquence où le nombre de photons est maximal. Or, ce pic est proportionnel à la température moyenne du gaz de photon, d'après la relation suivante : .

En intégrant l'équation précédente sur toutes les fréquences, on trouve la fameuse loi de Stephan, qui donne la densité d'énergie d'un gaz de photons en fonction de sa température. Voici cette loi, avec une constante, la constante de Stephan, et la température :

On peut la reformuler comme suit :

Sachant que l'on a , on a :

Dans ce qui suit, nous noterons la quantité comme suit : . L'équation précédente s'écrit alors, d'une manière plus formelle :

Au passage, on aurait pu avoir l'intuition de ce résultat dès le début du chapitre, quand j'ai dit que pour le rayonnement, on a : . Vu que la pression est proportionnelle à la densité d'énergie, on aurait du en déduire que celle-ci évoluait en .

L'évolution du nombre de particules d'un gaz de photons[modifier | modifier le wikicode]

Des équations précédentes, il est possible de déterminer le nombre de photons par unité de volume, appelée la densité de photons par analogie avec la densité de matière, et la manière dont elle évolue avec le facteur d'échelle. Pour la calculer, il suffit de diviser la densité d'énergie par l'énergie moyenne d'un photon. On obtient alors :

En simplifiant, on a :

Ce qui se reformule comme suit :

Sachant que l'on a , on a :

L'interprétation physique de la variation de densité énergétique du rayonnement[modifier | modifier le wikicode]

On a vu que la densité d'énergie du rayonnement varie selon la puissance quatrième du facteur d'échelle :

On peut donner un sens physique à cette équation. Premièrement, l'énergie du rayonnement est diluée dans un volume plus grand, égal à la puissance troisième du volume initial. La densité est donc divisée par la puissance troisième. À cela, il faut ajouter la diminution de la longueur d'onde causée par le facteur d'échelle. La somme de ces deux contributions donne la formule précédente. Pour nous en rendre compte, on peut partir de la définition de la densité d'énergie du rayonnement :

La variation de la densité d'énergie provient de deux sources : l'une est la variation de et l'autre est la diminution de . La première varie comme , car le nombre de photons reste globalement constant et que l'expansion fait augmenter le volume en . Cela sera justifié dans la section suivante, mais le résultat est le même que celui vu dans le chapitre précédent. Si l'énergie par particule demeurait constante lors de l'expansion, on aurait l'équation . On le voit, il manque un facteur pour obtenir l'équation finale. On peut facilement deviner son origine quand on sait que l'énergie moyenne d'un photon dans un gaz de photons est approximativement de :

On applique alors l'équation

En posant , on a :

En clair, la densité d'énergie diminue avec le facteur d'échelle pour deux raisons : l'expansion dilue le rayonnement dans un volume plus élevé, et l'expansion réduit la température du rayonnement.

Un autre argument qualitatif (et peu rigoureux) nous permet de justifier pourquoi l'expansion réduit l'énergie par particule. Rappelons qu'un photon de fréquence f a une énergie égale à , avec h la constante de Planck. Or, on a vu que la fréquence varie avec l'inverse du facteur d'échelle, l'énergie par photon doit faire de même, ce qui donne : math>{E \over N} \propto f \propto a^{-1}</math>. En clair, l'expansion étire la longueur d'onde des photons, ce qui leur fait perdre de l'énergie. Cependant, cette dérivation n'est pas parfaite, vu qu'on mélange la fréquence d'un photon unique avec la température d'un gaz de plusieurs photons. Ce qui nuit à la généralité de l'argument.

Cela a une conséquence assez importante : l'énergie de l'univers ne se conserve pas, mais diminue avec le temps ! Et ce n'est pas un problème qui serait réglé en relativité générale : il y a réellement une perte d'énergie quel que soit le modèle utilisé. À l'heure actuelle, on ne sait pas comment résoudre ce problème (si tant est que ce soit vraiment un problème).


Les processus de baryogenèse et nucléosynthèse

Au tout début de sa formation, l'univers était clairement chaud et dense. Les températures quelques microsecondes après le big-bang dépassaient le million voire le milliard de degrés. L'univers était en première approximation un gaz parfait de particules très différentes : neutrons, protons, neutrinos, électrons, photons, quarks, et autres. Les températures étaient tellement fortes que toutes les populations de particules réagissaient entre elles. N'importe quelle particule pouvait échanger de l'énergie avec n'importe quelle autre, homogénéisant les températures. Le mélange était tel que l'on pouvait définir une température moyenne valable pour tous les types de particules : les neutrons avaient une température moyenne similaire à celle des protons, elle-même identiques à celle des quarks, etc. On dit que l'équilibre thermique est respecté.

Puis, l'univers s'est refroidi en raison de l'expansion. En se diluant avec l'expansion, sa densité a diminué, les particules se sont espacées entre elles. Elles se sont éloignées au point que leurs interactions sont devenues plus rares. Leur proximité rendait leurs interactions faciles, chaque particule ayant rapidement accès à une voisine pour échanger de la quantité de mouvement. Mais avec la dilution, les particules se sont progressivement isolées les unes des autres, rendant les échanges de plus en plus difficiles. De nombreuses interactions ont disparues, perturbant les processus de mélange thermique. De plus, la température a aussi fortement baissé. Rappelez-vous le résultat du chapitre précédent : la température du rayonnement diminue comme l'inverse du facteur d'échelle (). Le gaz de particules élémentaires s'est alors progressivement condensé, donnant naissance à des particules composites. D'une soupe de particules se sont ainsi formés les nucléons, puis les noyaux et enfin les atomes. Ce chapitre vise à expliquer comment s'est produite cette condensation.

La baryogenèse[modifier | modifier le wikicode]

Au tout début, on pouvait voir l'univers comme un mélange de plusieurs gaz composés de particules élémentaires. Du temps des fortes températures, quelques micro-secondes avant le big-bang, les particules composites ne pouvaient pas se former à partir de quarks. La température trop intense faisait que les particules composites étaient brisées par le chaos ambiant quelques microsecondes après leur formation. C'était essentiellement les photons et neutrinos qui réagissaient avec la matière et brisaient les structures ainsi formées. Il a fallu attendre que la température du rayonnement baisse pour que les quarks puissent s'assembler en protons et neutrons sans interagir avec un photon qui passe sur le chemin. Ce processus de formation des protons et neutrons s'appelle la baryogenèse, ce qui signifie formation des baryons (les protons et neutrons sont des exemples de baryons, d'où le nom).

Le rapport protons/neutrons[modifier | modifier le wikicode]

La théorie du big-bang nous permet de déterminer comment s'est produit ce processus. Une réussite de la théorie tient dans le fait qu'elle prédit le rapport entre le nombre de protons et de neutrons dans l’univers. Celui-ci peut se calculer à partir du raisonnement suivant. Avant que les noyaux se forment, les protons et neutrons étaient libres et formaient un plasma de nucléons. La température de ce plasma a diminué progressivement avec l'expansion. Peu avant la formation des noyaux, la température était faible comparée à la masse des protons et neutrons (). Dans ces conditions, le gaz peut être décrit par ce qu'on appelle la distribution de Maxwell-Boltzmann. Celle-ci dit que la quantité de particules d'énergie par unité de volume est de :

Ainsi, on peut calculer le rapport entre protons et neutrons. Il suffit de faire le calcul de la densité de protons, et de la densité de neutrons séparément, et de diviser le premier par le second :

Les protons et neutrons forment un plasma tant que protons et neutrons peuvent interagir. Il arrive notamment que des protons se transforment en neutrons et réciproquement. Ces transformations, des réactions nucléaires, ont une probabilité d’occurrence qui dépend de la température. Quand le produit descend en-dessous de 0.8 Mev, ces réactions deviennent de plus en plus rares, au point que l'équilibre thermique du plasma est brisé. Les quantités de protons et de neutrons sont alors figées, de même que le rapport de leurs densités volumiques. Les calculs donnent 6 protons pour 1 neutron : . Dit autrement, ème de la matière baryonique est sous la forme de neutrons, alors que ème sont des protons. Cela correspond à environ 12% de neutrons pour 88% de protons.

Par la suite, ce rapport va cependant évoluer à cause de désintégrations de neutrons en protons (désintégration bêta). Précisons que ces désintégrations n'ont lieu qu'en-dehors des noyaux atomiques, et ne peut pas toucher l’abondance des éléments chimiques. Par contre, elle change l'abondance des protons et neutrons libres, isolés des atomes. Ces désintégrations suivent la fameuse loi de désintégration radioactive , avec égal à 880,3 s. On a alors :

La nucléosynthèse primordiale[modifier | modifier le wikicode]

Une fois les protons et neutrons formés, l'univers était rempli de protons, de neutrons, d'électrons et de neutrinos, qui formaient un gaz à haute température. Durant un temps assez court, protons et neutrons ne pouvaient pas s'assembler pour former des noyaux, la température brisant les noyaux qui avaient l'occasion de se former. Mais, la température diminuant, cela ne dura guère. Après un certain temps, protons et neutrons ont pu s'assembler pour former des noyaux, quand la température a atteint un certain seuil.

La formation des premiers noyaux porte le nom de nucléosynthèse primordiale. Un nom barbare assez simple à comprendre : nucléosynthèse veut dire "synthèse de noyaux atomiques", et primordiale pour dire qu'elle a eu lieu peu après le big-bang. Ce terme sert à la distinguer de la nucléosynthèse qui a lieu actuellement au cours des étoiles, la nucléosynthèse stellaire. Les différences entre les deux sont assez nombreuses. Déjà, la nucléosynthèse primordiale s'est faite sur un temps très court, d'à peine quelques secondes grand maximum, alors que la nucléosynthèse des étoiles est un processus continu qui dure durant plusieurs milliards d'années. Ensuite, la nucléosynthèse primordiale a majoritairement créé des éléments chimiques légers, mais guère plus. Elle a permis de fabriquer de l'hydrogène, de l'hélium, du béryllium et du lithium, mais pas plus. Les autres éléments chimiques ont été fabriqués ultérieurement par la nucléosynthèse stellaire, qui a donné naissance à du carbone, de l'oxygène, de l'azote, et d'autres noyaux lourds.

Isotopes de l'hydrogène.

Suite à la nucléosynthèse primordiale, la quasi-totalité de la matière est composée d’hydrogène et d'hélium : environ 3/4 d'hydrogène et 1/4 d'hélium, le reste étant présent en quantités négligeables. C'est pour cela que la quasi-totalité de la matière des étoiles et planètes est sous la forme d'hélium et d'hydrogène, des particules formées par l'assemblage de neutrons et de protons. Pour rappel, Un noyau d'hydrogène est formé d'un simple proton, le nombre de neutrons variant de zéro à deux neutrons. La plupart de l'hydrogène ne contient pas de neutron, cette forme d'hydrogène étant appelé du protium. L'isotope avec un neutron est appelé le deutérium, alors que celui avec deux neutrons est appelé le tritium. Le protium est de loin la forme d’hydrogène dominante, les autres formes n'étant présentes que dans les étoiles, rarement dans le milieu interstellaire. Quant à l'hélium, il possède deux protons, avec un nombre variable de neutrons. Ses deux isotopes les plus fréquents possèdent deux neutrons pour l'hélium-4, un seul pour l'hélium-3.

Les réactions de la nucléosynthèse primordiale[modifier | modifier le wikicode]

Résumé des réactions nucléaires principales de la nucléosynthèse primordiale, sous forme de liste.

La nucléosynthèse commence avec la fabrication de deutérium, un des isotopes de l'hydrogène. C'est à partir du deutérium que peuvent s'enclencher les réactions qui donnent naissance au tritium, à l'hélium, au lithium et au béryllium.

Dans ce qui suit, on notera D un noyau de deutérium, T un noyau de tritium, p un proton et n un neutron.
Illustration des réactions nucléaires donnant naissance au deutérium, au tritium et à l'hélium (3 et 4).

Le deutérium se forme en fusionnant un proton avec un neutron. La formation du deutérium ne s'est produite qu'une fois la température suffisamment basse. Au-dessus de cette température, les noyaux de deutérium ne survivent pas bien longtemps, à cause de la photodissociation. Les photons énergétiques brisent ces noyaux en quelques microsecondes, ne laissant que des protons et des neutrons. Mais une fois que la température descend sous la température critique du deutérium, les photons ne sont plus assez énergétiques pour briser les noyaux de deutérium, qui survivent.

Une fois le deutérium formé, des réactions donnent naissance soit à de l'hélium-3, soit à du tritium. L'hélium-3 peut se former de deux manières : soit par addition d'un proton, soit par fusion de deux noyaux de deutérium.

Le tritium peut lui aussi se former de deux manières différentes. Dans le premier cas, il est formé par la fusion de deux noyaux de deutérium. Dans le second cas, il est formé à partir d'un noyau d'hélium-3, dans lequel on remplace un proton par un neutron (par désintégration bêta, ou par capture/émission de nucléons).

Une fois le tritium ou l'hélium-3 formé, l'hélium-4 peut enfin apparaître. Il se forme soit à partir d'hélium-3, soit à partir de tritium. Et les méthodes pour ce faire assez diverses. Dans les deux cas, il se forme en ajoutant un noyau de deutérium, suivi par l'émission d'un nucléon. Le nucléon émit est un proton pour la fusion avec l'hélium-3, un neutron pour la fusion avec le tritium. Une autre manière consiste à ajouter un proton à du tritium, ou du neutron à de l'hélium-3.

Enfin, les autres éléments légers peuvent se former à partir de l'hélium-4. En fusionnant de l'hélium-4 avec soit du tritium, soit de l'hélium-3, on obtient respectivement du lithium et du béryllium. Le lithium peut aussi se former à partir du béryllium, par remplacement d'un neutron en proton. De plus, le lithium peut fusionner avec un proton pour donner deux noyaux d'hélium-4.

L'ensemble de ces réactions est résumé dans le schéma ci-dessous.

Réactions nucléaires principales de la nucléosynthèse primordiale, en schéma.

Le calcul de l'abondance de l'Hélium[modifier | modifier le wikicode]

Des calculs théoriques poussés, basés sur la physique nucléaire, nous disent que la concentration en éléments chimiques a évolué rapidement au cours de la nucléosynthèse primordiale, avant de stabiliser. Le résultat est que les deux éléments majoritaires sont l'hydrogène (le protium) et l'hélium-4. Le deutérium et l'hélium-3 sont plus rares et ont une concentration assez similaire. Le tritium et les neutrons libres sont eux encore plus rares. Enfin, le lithium et le béryllium ferment la marche et sont les éléments les plus rares. Pour simplifier, on peut dire que l'univers est rempli presque exclusivement d'hydrogène et d'hélium-4. Les autres éléments sont tellement rares qu'ils sont presque négligeables.

Évolution de la concentration de chaque élément chimique dans l'univers, au cours de la nucléosynthèse primordiale.

Sans recourir à ces calculs compliqués, on peut calculer l'abondance des éléments principaux. L'idéal est de se concentrer sur l'hydrogène (le protium) et l'hélium-4 uniquement. Négliger les autres éléments n'est pas un problème tant ils sont rares. En faisant cela, on doit considérer que tous les neutrons ont été capturés dans les noyaux d'hélium-4, vu qu'il n'y en a pas dans les noyaux de protium.

Rappelons que le rapport protons/neutrons est de 1/7. Cela veut dire que sur 16 baryons, 2 sont des neutrons et 14 sont des protons (ce qui est équivalent à dire que sur 8 baryons, 1 est un neutron et 7 sont des protons). Avec ces 16 baryons, on peut créer un atome d'hélium-4 avec 2 neutrons et 2 protons, ce qui laisse 12 protons. On a donc 12 noyaux d’hydrogènes pour un noyau d'hélium-4. Vous avez peut-être vu d'autres chiffres dans la vulgarisation, notamment un rapport de 75% d'hydrogène contre 25% d'hélium. Mais ces pourcentages sont exprimés en termes de masse, non de nombre d'atomes. Pour retrouver ce rapport 75%/25%, il faut prendre en compte la masse relative des noyaux d'hélium-4 et d'hydrogène. Un noyau d'hélium-4 étant approximativement 4 fois plus massif qu'un noyau d'hydrogène, il faut diviser le nombre de noyaux d'hydrogène par 4 pour utiliser la même unité de masse. En faisant cela, on trouve alors que 75% de la masse de l'univers est composée d'hydrogène et les 25% restants d'hélium-4.

Abondance des éléments chimiques suite à la nucléosynthèse primordiale.

Il est possible de retrouver ces résultats par le calcul, ce que nous allons faire de ce pas. Dans les calculs qui vont suivre, nous noterons le nombre d'atomes d'hélium alors que le nombre d'atomes de protium sera noté . Les nombres de neutrons et de protons seront notés et . L'hypothèse comme quoi tous les neutrons sont capturés dans les noyaux d'hélium-4 signifie que :

, car il y a deux neutrons dans un noyau d'hélium-4.

La première étape est de calculer la quantité totale de baryons enfermés dans les noyaux d'hélium-4. Un atome d'hélium-4 contient 4 baryons, deux neutrons et deux protons. En multipliant par le nombre de noyaux, on obtient cette quantité totale, égale à :

Pour la seconde étape, on a besoin du nombre total de baryons dans l'univers. Par définition, il est égal à la somme (la somme du nombre de protons et de neutrons). En combinant les deux équations précédentes, on obtient le rapport entre le nombre de baryons dans les atomes d'hélium et le nombre total de noyaux, que nous noterons .

On utilise alors l'équation  :

On peut réécrire cette équation en utilisant uniquement le rapport protons/neutrons calculé dans la section précédente. Il suffit pour cela de diviser l'équation précédente par le nombre de protons. On a alors :

On a vu dans la section précédente que le le rapport protons/neutrons suite au big-bang est de . En utilisant cette valeur, on trouve que , ce qui veut dire que 75% de la masse de l'univers est composé d'hydrogène et 25% d'hélium-4. Cette valeur est très proche de la valeur observée. À l'heure actuelle, 74% de la masse de l'univers est composée d'hydrogène et 25% d'hélium-4, le reste se partageant le 1 % restant. Précisons qu'il s'agit d'un pourcentage en masse, non en nombre d'atomes.



Le découplage des photons et neutrinos

Dans les chapitres précédents, nous avons vu quelque chose de très important : la température du rayonnement diminue avec l'expansion. Un point important est que l'univers, à ses débuts, est composé d'un plasma, à savoir un gaz de particules chargées. L'univers ne comprend au départ par d'atomes, mais seulement des électrons, des protons et neutrons, etc. La matière était composée d'un plasma d'électrons libres, de baryons et de photons. A cette époque, le rayonnement interagissait fortement avec les électrons libres, les noyaux d'atomes, les électrons liés aux atomes, bref : avec la matière au sens général. Vu que le rayonnement et la matière interagissaient beaucoup, les deux étaient à la même température. Matière et rayonnement étaient en équilibre thermique, à la même température. Si la matière chauffait trop, elle redistribuait l'excès au rayonnement, et réciproquement. Ce plasma formait un fluide unique, avec une pression, une température, une densité d'énergie, etc.

Les photons interagissaient fortement avec les électrons, par diverses processus (diffusion Compton, et autres), ce qui redistribuait la température. Les photons chauffaient les électrons et réciproquement. Un équilibre thermique s'était ainsi installé entre photons et électrons libres, les deux ayant la même température/énergie cinétique moyenne. Cet équilibre incluait aussi les baryons, bien que les baryons n'interagissaient pas directement avec les photons. Les baryons interagissaient fortement avec les électrons, qui servaient d'intermédiaires avec les photons. Ce plasma avait naturellement des propriétés thermodynamiques simples : une pression, une température, un volume, etc. Sa pression était essentiellement causée par la pression de radiation des photons, avec une participation mineure de la pression des électrons libres et des baryons.

La matière neutre est transparente, ce qui induit un découplage des photons.

Mais la température baissant avec l'expansion, elle a finit par atteindre une température suffisamment basse pour que les atomes se forment. La matière est alors passée de l'état de plasma à un gaz d'atomes. Cela s'est produit 380 000 ans après le big bang, à une température d'environ 3000 degrés. Le résultat est que les interactions entre rayonnement et matière se sont faites plus rares, et surtout que la redistribution d'énergie entre matière et rayonnement s'est faite plus rare, plus lente.On nomme découplage de telles situations où deux populations de particules n'interagissent plus à la suite d'une baisse de température. Et ici, il s'agit du découplage des photons.

Après le découplage, le rayonnement et la matière font leur vie chacun de leur côté et cela s'est ressenti sur leur température et leur évolution. La première conséquence du découplage est que l'équilibre thermique est rompu : les deux populations de particules s'isolent thermiquement et leur températures deviennent indépendantes. La température de la matière est devenue différente de la température des photons. De plus, elles ne se sont pas refroidies de la même manière. La matière garda sa température constante lors de l'expansion, alors que celle du rayonnement chuta avec l'expansion. Le rayonnement s'est refroidi plus vite que la matière, à cause de la diminution de fréquence des photons, abordées il y a quelques chapitres.

Le fond diffus cosmologique[modifier | modifier le wikicode]

Pour résumer, le plasma s'est divisé en deux gaz indépendants : un gaz de matière et un gaz de photon. Le gaz de matière s'est condensé pour donner des galaxies et autres structures, alors que le gaz de photons a subsisté jusqu’à aujourd'hui sous la forme d'un ensemble de photons de faible température, que l'on peut capter avec certains instruments. Ce gaz est appelé le fond diffus cosmologique, aussi appelé le rayonnement de fond diffus cosmologique, ou encore le CMB (Cosmic Microwave Background).

La même chose a eu lieu pour les neutrinos et anti-neutrinos qui se sont découplés de la matière et des photons un peu avant les photons. Ce fond diffus de neutrinos est malheureusement nettement moins étudié que le fond diffus cosmologique, car les neutrinos n'interagissent pas beaucoup avec la matière, et qu'ils sont donc difficiles à détecter. Nous n'en parlerons donc pas dans ce cours, par manque d'informations à leur sujet. Pour le moment, concentrons-nous sur le découplage des photons.
COBE monopole dipole and primordial perturbations

Le CMB a été théorisé avant d'être découvert. Dans un article de 1948, Alpher et ses collègues théorisèrent l'existence du CMB à partir d'un modèle de big-bang usuel. Mais il fallut attendre 1965 pour que ce signal soit observé pour la première fois, par Penzias et Wilson. Ceux-ci utilisaient une antenne de grandes dimensions, pour tester la fiabilité des communications entre satellites, et étudiaient des interférences radio qui apparaissaient à haute fréquence. Leurs investigations leur ont permis de capter un signal dans la bande de 4Ghz, qui avait des caractéristiques étranges : isotrope, non-polarisé et libre de toute variation saisonnière. L'origine de ce signal est restée inconnue durant quelques années, mais les scientifiques (dont Penzias et Wilson) avaient éliminé toute origine terrestre. Il fallu que Dicke et ses collaborateurs fassent le lien avec l'article d'Alpher. Par la suite, diverses campagnes d'observation ont permis d'obtenir une carte assez détaillée du fond diffus. De nombreux projets d'observations scientifiques ont ainsi observé le fond diffus cosmologique avec une précision de plus en plus grande : COBE, puis WMAP, et enfin la mission PLANCK.

Les observations de Penzias et Wilson montraient un CMB relativement uniforme. Par la suite, les observations du satellite COBE ont montré que le CMB a l'air d'avoir une structure en forme de dipôle, à savoir qu'il a un pôle chaud opposé à un pôle froid. Les observations plus récentes éliminent cet effet Doppler par divers traitements informatiques, et montrent un CMB sans dipôle, mais avec quelques inhomogénéités. On observe notamment une zone plus chaude au niveau de l'équateur, liée à la présence de la voie lactée (notre galaxie), qui réchauffe quelque peu le CMB de par son rayonnement.

La surface de dernière diffusion[modifier | modifier le wikicode]

Surface de dernière diffusion.

Le fond diffus capté à l'heure actuelle correspond aux photons émis lors du découplage, environ 380 000 ans après le big-bang. Du point de vue de la Terre, les photons du CMB captés par les instruments de mesure sont répartis sur une sphère centrée sur la Terre, appelée la surface de dernière diffusion, dont le diamètre correspond à la distance parcourue par ces photons depuis le découplage.

Pour comprendre pourquoi on parle de surface de dernière diffusion, il faut faire un petit rappel sur les interactions entre photons et matière. Les photons ont en effet tendance se cogner sur les particules qui croisent leur chemin, et à rebondir dessus. Typiquement, ils rebondissent sur des électrons dans un processus appelé la diffusion Compton. Lors de ce choc entre électron et photon,une partie de l'énergie du photon est transférée à l'électron, ou inversement.

Diffusion Compton

Les photons du CMB sont soit des photons qui ont été émis au moment du découplage, soit des photons qui existaient avant, mais ont rebondit une ou plusieurs fois sur des particules de matière. Les diffusions Compton étaient très fréquentes avant le découplage, car les électrons libres étaient très nombreux. Les photons ne pouvaient pas faire un pas sans interagir avec un électron libre, leur temps de libre parcours moyen (temps entre deux collisions avec un électron libre) était très faible. Le mouvement d'un photon dans le plasma primordial était chaotique : les photons ne pouvaient pas aller en ligne droite, mais n'avaient de cesse de se cogner sur les atomes au point où leur trajectoire ressemblait à marche aléatoire, à un mouvement brownien. En conséquence, le plasma primordial avant le CMB était opaque, dans le sens où il ne laissait pas traverser la lumière facilement.

Mais après le découplage, les électrons se sont liés aux atomes, ne laissant presque aucun électron libre pour participer à des diffusions Compton. Les photons du CMB, autrefois diffusés fréquemment, n'ont ensuite plus été diffusé par diffusion Compton, ou presque. Leur libre parcours moyen, la distance parcoure entre deux collisions/diffusions est devenus beaucoup plus grande. Les photons ont alors pu se déplacer en ligne droite entre quelques rares collisions, et donc le plasma primordial est devenu transparent. Le découplage est le moment où ils ont diffusé pour la dernière fois, d'où le fait que l'on parle de surface de dernière diffusion.

Précisons cependant que le découplage ne s'est pas fait instantanément, mais est un processus progressif qui s'est étalé sur un temps non-négligeable. Et cela a un effet sur la surface de dernière diffusion. Il s'agirait bien d'une surface sphérique si le découplage était instantané, mais la réalité est que la surface de dernière diffusion a une certaine épaisseur. Son épaisseur est égale à la distance parcourue par un photon durant la durée du découplage. Cela a des effets mesurables, notamment dans le spectre de puissance du fond diffus, mais nous en reparlerons dans quelques chapitres.

Le CMB est un rayonnement de corps noir[modifier | modifier le wikicode]

Les observations montrent que, peu importe à quel endroit on le regarde, le CMB est un rayonnement de corps noir quasiment parfait, ce qui est en accord avec la théorie. Le fait que le CMB soit un rayonnement de corps noir signifie que l'on peut lui attribuer une température, une température en chaque point du ciel pour être précis.

Comparaison du CMB avec un rayonnement de corps noir.

Le dipôle du CMB[modifier | modifier le wikicode]

CMB vu par COBE, sans traitement (en haut), en retirant le dipôle (milieu) et en retirant la luminosité de la voie lactée (en bas).

Le fait que le CMB aie une forme approximativement dipolaire est en soi un gros problème, que l'on arrive pas à bien expliquer théoriquement. On pourrait croire que cela réfute l'idée d'un univers isotrope, mais ce n'est pas forcément le cas.

L'explication usuelle quant à l'existence de ce dipôle est qu'il serait d'origine cinématique, lié au mouvement de la Terre par rapport au CMB. L'explication détaillée part du principe qu'il y aurait un référentiel dans lequel le CMB serait isotrope et sans aucun dipôle. Cependant, la Terre se déplacerait à une certaine vitesse notée v par rapport à ce référentiel. Rappelons que le CMB est avant tout un rayonnement électromagnétique avec une certaine fréquence, fréquence qui dépend de sa température. Or, la fréquence du CMB est alors déformée par une sorte d'effet Doppler, ce qui fait que la température dépend de la direction dans laquelle on se déplace, par rapport au référentiel où le CMB est isotrope. Les zones du CMB qui s'éloignent de nous sont vues comme refroidies, alors que les zones qui s'approchent (opposées, donc) sont vues comme plus chaudes.

Pour rappel, à de faibles vitesse, le CMB subit un décalage vers le rouge de :

La relativité restreinte donne une formule encore plus précise :

Une explication beaucoup plus détaillée est cependant encore inconnue. On fait face à un cas assez mal compris théoriquement : établir la température d'un objet alors qu'on se déplace par rapport à lui à grande vitesse. Et outre la température, on peut aussi analyser la forme du rayonnement de corps noir observée. Température et corps noirs sont deux concepts de la thermodynamique, une branche de physique parfaitement maitrisée tant qu'on reste dans le cadre de la physique classique de Newton. Mais le cas qui nous intéresse, à savoir à quoi ressemble le fond diffus quand on se déplace à grande vitesse, demande qu'on utilise la relativité restreinte d'Einstein. Et c'est là que le bas blesse : on n'a pas de théorie validée pour la thermodynamique relativiste. La thermodynamique relativiste vise à reformuler les lois de thermodynamique dans le cadre de la relativité restreinte d'Einstein. A l'heure actuelle, les physiciens ont plusieurs théories pour cela, mais elles donnent des résultats complètement contradictoires !

Et pour comprendre pourquoi, faisons quelques rappels de relativité restreinte. La relativité nous dit que quand on se déplace par rapport à un référentiel immobile, les distances et les durées sont modifiées par un facteur appelé le facteur de Lorentz. Ce dernier vaut :

, avec est la vitesse de déplacement, et est la vitesse de la lumière dans le vide.

Concrètement, si je mesure une distance L dans un référentiel immobile, la même distance mesurée en allant à la vitesse v sera de . La distance mesurée est plus petite que dans un référentiel immobile et elle est d'autant plus petite que l'on va vite. C'est l'effet de contraction des longueurs. L'effet est inverse pour les durées, à savoir que la durée d'un évènement/phénoméne n'est pas la même selon la vitesse du référentiel de mesure. La durée mesurée dans un référentiel en mouvement est plus longue que celle mesurée dans un référentiel immobile. Cette fois-ci, une durée D devient . C'est l'effet de dilatation des durées.

Maintenant, prenons le cas où on cherche à calculer la température observée du CMB, ou même de tout autre rayonnement de corps noir observé depuis un objet en mouvement. Le CMB, dans son référentiel où il est isotrope (immobile dirait-on), a une température notée . L'observateur se déplace à une vitesse dans une direction bien précise. En théorie, plusieurs situations sont possibles.

  • La température observée est égale à .
  • La température observée est égale à .
  • La température observée est égale à .

A l'heure actuelle, nous ne savons pas quelle est la bonne solution. Les trois possibilités sont impossibles à distinguer expérimentalement, et les trois sont défendues par des arguments théoriques solides. Une revue de ces arguments est disponible dans le document nommé "Black Body Radiation in Moving Frames", par Kamran Derakhshani. Mais l'explication actuelle du dipole du CMB part du principe que l'on a une variante de la seconde solution. En 1968, Bracewell et Conklin ont sorti une étude où ils montraient que, si leur démonstration était correcte, alors un observateur en mouvement dans le CMB mesurait une température anisotrope, à savoir dépendante de la direction. La température mesurée en un point du CMB était la suivante :

, avec l'angle par rapport à la direction de déplacement.

L'équation nous dit que le CMB doit semble plus chaud à l'avant, et plus froid, par rapport à la direction de déplacement. On retrouve donc le dipole observé dans le CMB, à condition que la vitesse de déplacement ait la bonne valeur. Elle serait d'environ 300 kilomètres par secondes. C'est l'explication actuelle du dipole du CMB.

L'explication précédente du dipôle du CMB est actuellement contestée. A vrai dire, il s'agit d'une hypothèse parmi beaucoup d'autres et elle est juste un consensus assez mou, que les astrophysiciens cherchent à vérifier ou infirmer depuis longtemps. Diverses expériences ont tenté de vérifier l'origine cinétique du dipôle, de plusieurs façons. La première est de vérifier si ce dipôle apparait non seulement dans le CMB, mais aussi dans les observations des quasars et des sources radio lointaines. En théorie, si l'explication cinétique est bonne, alors on devrait retrouver un effet similaire en observant la positions des galaxies très lointaines. Diverses études ont tenté de vérifier cela, mais les résultats ne sont pas encore très fiables. De plus, l'explication cinétique implique qu'il y ait un référentiel dans lequel le CMB serait quasi-uniforme et sans dipôle. Cela pourrait en faire un référentiel privilégié et briserait le principe de relativité avec l'invariance galiléenne/lorentzienne, mais rien n'est moins sûr.

Outre l'existence de ce dipôle, d'autres observations semblent indiquer que le CMB aurait un axe privilégié, nommé l'axe du mal (axis of evil en anglais), qui impacterait le CMB, mais aussi l'expansion de l'univers. Mais le fait que l'axe soit aligné avec le plan de écliptique (le plan sur lequel la Terre tourne autour du Soleil) met le doute quant à son origine. Une origine cinématique locale est en tout cas plus probable qu'une origine cosmologique, sauf coïncidences. Mais là encore, rien n'est moins sûr et il se pourrait que les données soient biaisées, d'autres études n'ayant pas retrouvé cet axe du mal dans leurs données.

L'axe du mal du CMB.

Le découplage et le fond diffus[modifier | modifier le wikicode]

Au moment du découplage, on sait que le gaz de photons devait avoir la même température que le plasma. Sans expansion, cette température serait égale à la température du plasma au moment du découplage, qui a été conservée par le gaz de photons. Mais l'expansion a décalé ce rayonnement de corps noir vers le rouge, diminuant sa température. La température du fond diffus a donc diminué en conséquence. De nos jours, les mesures donnent une température d'environ 2,735 Kelvin. Mais on est en droit de se demander quelle était sa température au moment de sa formation. On peut aussi se demander combien de temps de refroidissement du CMB a duré.

L'âge de la recombinaison[modifier | modifier le wikicode]

La température du fond diffus au moment du découplage est estimée à 3000 degrés Kelvin, température de condensation d'un plasma en atomes. À partir de la température mesurée actuellement, et de la valeur théorique de formation d'un plasma, on peut déduire l'âge qui s'est écoulé depuis la formation du CMB. En théorie, on peut déduire la température du CMB en utilisant la formule suivante, établie dans le chapitre "L'évolution du rayonnement" :

Mais utiliser cette formule présuppose de connaître et . Cependant, on peut ruser en remplaçant le facteur d'échelle par le redshift. Pour cela, on utilise la formule vue dans le chapitre "L'évolution du rayonnement". Le décalage vers le rouge est mesuré entre l'époque actuelle et la recombinaison, ce qui fait qu'on le notera .

Rappelons que cette formule utilise la convention . Ici, le temps d'émission est l'instant où a eu lieu la recombinaison. En clair, la température est la température de découplage .

La température au moment du découplage était d'environ 3000 degrés Kelvin, alors que la température actuelle du fond diffus est d'environ 2,735 degrés Kelvin.

Le redshift calculé ainsi est de :

.

En utilisant un modèle cosmologique, on peut déduire une relation âge-redshift, et donc calculer combien d'années se sont écoulées entre le big-bang et la formation du CMB.

La température de recombinaison[modifier | modifier le wikicode]

La recombinaison a eu lieu quand l'univers a atteint une certaine température, qu'il est important de connaître. En effet, grâce à elle, on peut calculer quand a eu lieu le découplage, et donc dater le CMB. Autant dire que calculer celle-ci est d'une importance primordiale. En théorie, la température du CMB est la température à laquelle un plasma se condense en atomes quand on le refroidit. Dit autrement, c'est la température d'une transition de phase. Vous avez peut-être déjà entendu que cette température est d'environ 3000 degrés Kelvin, ce qui est la température mesurée sur Terre. Reste qu'il vaut mieux la calculer et en rendre compte théoriquement. Les mesures réalisées sur Terre ne sont peut-être pas représentatives des conditions de l'univers primordial : la pression est plus élevée, la densité différente et j'en passe. Dans cette section, nous allons calculer la température théorique à laquelle le découplage a eu lieu.

L'approximation par l'énergie photonique moyenne[modifier | modifier le wikicode]

Une première méthode est de comparer l'énergie d'ionisation de l'hydrogène avec l'énergie d'un photon. Dans un gaz de photons de température , l'énergie moyenne d'un photon est de . L'énergie d'ionisation d'un atome d'hydrogène (la plus faible de toutes) est de 13,6 électrons-Volts (l'EV est une unité d'énergie). Si l'énergie moyenne des photons est supérieure à l'énergie d'ionisation de l'hydrogène, alors la matière restera ionisée. Si ce n'est pas le cas, les photons ne sont pas assez énergétiques pour ioniser la matière, qui se condense. On peut alors calculer une approximation de la température de découplage avec le quotient suivant :

On voit que la température obtenue est diablement haute, comparée aux valeurs réelles : plus de 10 fois la valeur réelle. Cela vient d'un phénomène simple : l'énergie moyenne n'est qu'une moyenne, qui cache le fait que certains photons sont plus énergétiques que la moyenne. Même si l'énergie moyenne d'un photon est de 13,6 eV, de nombreux photons ont une énergie suffisante pour ioniser un atome dans le gaz de photon.

On peut obtenir une approximation plus crédible en étudiant plus en détail la dispersion des énergies des photons. Dans un gaz de photons, tous les photons n'ont pas la même énergie. Et l'énergie n'est pas répartie équitablement entre les photons, mais suit une loi assez compliquée. Mais pour simplifier, on peut estimer que le nombre de photons suit la loi de Boltzmann. Pour résumer, le nombre de photons qui a au moins une énergie est proportionnel à l'exponentielle de leur énergie. Mis sous forme de formule, cela donne :

.

Supposons maintenant qu'il faille un photon par atome à ioniser pour que l'ionisation se fasse. Sachant qu'il y a environ photons par baryon.atome, on peut trouver la température de découplage suivante :

L'approximation par l'équation de Saha[modifier | modifier le wikicode]

Il est possible d'obtenir une approximation plus précise avec l'équation de Saha. Celle-ci permet de déduire le degré d'ionisation d'un gaz. Le gaz en question correspond à un gaz d'hydrogène, composant principal de l'univers, qui s'est justement formé lors du découplage. Avant le découplage, on peut considérer que l'univers était rempli d'un plasma formé par ionisation du gaz d'hydrogène, à savoir un gaz qui mélangeait protons et électrons. L'équation de Saha nous dit que, si on note :

  • , et la concentration en électrons, protons et hydrogène ;
  • la masse de l'électron ;
  • l'énergie d'ionisation d'un atome d'hydrogène.
Vous remarquerez que l'équation de Saha ressemble beaucoup à la distribution de Boltzmann.

Pour diverses raisons techniques, les physiciens décrivent souvent l'ionisation d'un gaz en utilisant la fraction d'électrons libres. Elle correspond au rapport en nombre d'électrons libres et nombre de protons (libres ou appartenant à un atome d'hydrogène). Elle vaut donc :

Le plasma primordial est neutre électriquement. Or, la neutralité électrique de la matière signifie que . Avec cette contrainte, l'équation de Saha se réécrit comme suit :

L'équation nous dit que le découplage n'est pas un évènement qui a eu lieu à une température bien précise, mais un processus continu dans lequel l'ionisation a baissé lentement. À 5000 Kelvins, la matière est ionisée à près de 99%. Le taux d'ionisation chute ensuite progressivement avec la température, pour atteindre 50% à 4000 Kelvins, puis 1% à 3000 Kelvins. Les scientifiques estiment, par pure convention, que le découplage a eu lieu quand le degré d'ionisation descend en-dessous de 1%, c'est à dire à une température d'environ 3700 Kelvin.

Les approximations plus précises[modifier | modifier le wikicode]

Les observations ne sont pas complètement compatibles avec cette approximation, bien que le modèle de Saha colle à-peu-près. Les mesures semblent indiquer non seulement que la température calculée n'est pas tout à fait exacte, mais qu'en plus, le découplage a pris plus de temps, s'est déroulé plus lentement. Pour obtenir des résultats plus précis, divers modèles ont été inventés par les physiciens. Le plus simple de ces modèles est le modèle de Peebles, aussi connu sous le nom de modèle d'atome à trois étages. Il a été complété par de nombreux modèles, qui sont devenus de plus en plus complexes avec le temps, incluant de plus en plus d'acquis théoriques provenant de la physique atomique. Nous ne parlerons pas de ces modèles, qui sont assez compliqués pour ce cours et qui font notamment appel à quelques concepts de physique quantique.



Une introduction aux modèles cosmologiques

Les chapitres précédents nous ont appris beaucoup de choses. Ils ont fourni une description de l'expansion de l'univers basée sur le facteur d'échelle, de quoi calculer le rayon de l'univers observable, et ont décrit comment la matière et le rayonnement réagissent à l'expansion. Maintenant, nous allons voir une portion bien plus intéressante de la cosmologie. Nous allons étudier les modèles cosmologiques, des modèles théoriques qui décrivent comment l'univers lui-même a évolué au cours du temps. Les modèles cosmologiques que nous allons voir dans ce cours donnent au minimum les résultats suivants : l'évolution du facteur d'échelle au cours du temps (la fonction , le rayon observable de l'univers, son âge (s'il en a un), une formule pour le facteur de Hubble, et parfois d'autres données supplémentaires (T(t) : température à tout instant, ...).

Dans ce chapitre, nous allons voir quelques modèles cosmologiques ad hoc. Par ad hoc, on veut dire qu'on fait des hypothèses purement arbitraires pour démontrer le modèle. De tels modèles sont à contraster avec des modèles démontrés à partir de principes physiques fondamentaux. Les modèles démontrés à partir de lois physiques plus fondamentales sont en effet un peu plus compliqués et seront vus dans les chapitres qui suivent. Le prochain chapitre porte d'ailleurs sur les modèles de Friedmann, qui sont les modèles les plus utilisés en cosmologie physique. Dans ce chapitre, nous allons voir des modèles plus simples. La démarche de ce chapitre consistera simplement à postuler une loi d'évolution pour le facteur d'échelle, à postuler la fonction . Une fois cela fait, nous pourrons établir une formule pour le facteur de Hubble, le rayon cosmologique, etc. Une telle démarche demande de choisir une fonction en fonction de ses propriétés mathématiques, de sa facilité pour faire les calculs, etc. Dans les modèles cosmologiques physiques, cette loi est démontrée à partir de principes physiques plus fondamentaux.

Dans ce chapitre, nous allons voir plusieurs modèles. Le premier est celui pour lequel la loi est linéaire. Il s'agit d'un modèle très simple, mais qui n'est pas réaliste du tout. Cependant, ce modèle permet d'introduire deux grandeurs fondamentales : le temps et le rayon de Hubble. De plus, il sert de point de comparaison avec le second type de modèles : ceux pour lesquels la loi est une loi de puissance. Enfin, nous verrons ce qui se passe quand le facteur d'échelle croit de façon exponentielle. En soit, ces trois modèles font que l'univers est en expansion, mais de manière différente. Une croissance linéaire n'a rien à voir avec une croissance exponentielle, ni avec une croissance en loi de puissance. Nous verrons cependant que les modèles cosmologiques physiques, ceux de Friedmann, donnent une croissance soit exponentielle, soit en loi de puissance. Nous pourrons donc réutiliser les résultats de ce chapitre dans les chapitres ultérieurs sur les modèles physiques. Les modèles ad hoc que nous allons voir vont nous donner des résultats qui faciliteront l'étude de modèles plus physiques, plus compliqués.

Le modèle à croissance linéaire[modifier | modifier le wikicode]

Pour commencer, nous allons étudier un premier modèle : le modèle à croissance linéaire. Il est aussi appelé modèle , en raison d'une des équations du modèle[1]. Les cosmologistes ont étudié ce modèle à partir de l'année 2012, car de nombreux problèmes des autres modèles disparaissent dans ce modèle, mais il semble qu'il ne colle pas trop aux observations actuelles[2]. Quoi qu’il en soit, ce modèle est intéressant à étudier et il sert de bonne introduction, avant de passer à des modèles plus compliqués.

Avec ce modèle, on suppose que l'univers gonfle de manière relativement constante avec le temps. Mathématiquement, cela se traduit par la loi d'évolution suivante pour le facteur d'échelle :

, avec le temps, une constante quelconque.

Une autre formulation, souvent utilisée, est la suivante :

, avec l'origine de temps choisie arbitrairement et le facteur d'échelle à ce même instant.

Notons que les deux sont équivalentes, sous réserve que . Dans ce qui va suivre, nous utiliserons la première formulation, sauf pour ce qui est l'étude du décalage vers le rouge. Avec ces formules, nous allons calculer quelle est la valeur du facteur de Hubble qui correspond, quel est l'âge de l'univers, quel est son rayon, la vitesse de l'expansion de l'univers, etc.

Avant de poursuivre, on peut calculer la dérivée première et seconde du facteur d'échelle, deux résultats qui seront utiles pour la suite. Le calcul de la dérivée première donne :

Celle-ci étant une constante, la dérivée seconde est donc nulle.

Rappelons que la dérivée seconde du facteur d'échelle nous dit si l'expansion de l'univers accélère, ralentit ou reste constante. Pour une valeur nulle, l'expansion se fait à rythme constant.

Le calcul du facteur de Hubble et de l'âge de l'univers[modifier | modifier le wikicode]

Pour calculer le facteur de Hubble, nous allons partir de la dérivée du facteur d'échelle, qui est égale à :

En divisant par a(t), le terme de gauche devient le facteur de Hubble. On a alors :

On peut comparer l'équation précédente avec l'identité vue dans le second chapitre. On obtient alors :

L'âge de l'univers est égal au temps de Hubble dans ce modèle.

L'évolution du facteur de Hubble dans le temps[modifier | modifier le wikicode]

De l'équation , on peut déduire comment le facteur de Hubble H évolue au cours du temps. Pour cela, il suffit d'étudier ce qui se passe quand l'âge de l'univers augmente. Au fur et à mesure que le temps passe, l'âge de l'univers augmente. Ce faisant, le dénominateur de croit et le facteur de Hubble diminue donc. Pour le dire en termes mathématiques, le facteur de Hubble est une fonction décroissante du temps. Un bon moyen de s'en rendre compte est de calculer la dérivée du facteur de Hubble :

La dérivée étant négative, on en déduit que le facteur de Hubble décroit au cours du temps. Et cette décroissance est d'autant plus rapide que l'univers est âgé.

Le calcul du paramètre de décélération[modifier | modifier le wikicode]

À partir des résultats précédents, on peut calculer la valeur du paramètre de décélération. Pour rappel, celui-ci est un nombre qui dit à quelle vitesse l'expansion de l'univers accélère ou ralentit. L'expansion est décélérée s'il est positif, accélère s'il est négatif et reste constante sinon. Il se calcule en utilisant la formule suivante, vue dans le chapitre sur l'univers observable :

On injecte alors les équations et , ce qui donne :

En clair, l'expansion garde un rythme constant, elle n’accélère pas et ne ralentit pas, comme dit précédemment.

Le rayon de Hubble[modifier | modifier le wikicode]

Par définition, le rayon de Hubble est égal à :

En combinant avec l'équation , on a :