Cosmologie fastoche (3/3)


Part 3: à l’assaut du principe anthropique

Récapitulons: L’univers s’est sans doute formé il y a un peu plus de 13 milliards d’années; il est homogène, isotrope et respecte bien les règles de géométrie du genre « la somme des angles des ses triangles fait 180° » et « le périmètre d’un cercle vaut son diamètre fois pi », bref il est « euclidien ». Son avenir est de s’agrandir de plus en plus vite et indéfiniment mais on notre univers observable, lui, est de taille finie et constante. L’exploration du passé est bien plus spéculative et pleine de surprises…

Le fonds diffus cosmologique ou pourquoi les métaux sont toujours opaques
Aussi loin qu’on le regarde, l’univers s’étend de plus en plus vite. Si l’on remontait dans le temps, on le verrait donc se contracter de plus en plus et devenir de plus en plus dense et chaud, comme un gaz qu’on comprime dans un piston. Or au-dessus d’une certaine température, vers 3000K environ, le gaz se transforme en plasma, sorte de soupe brûlante dans lequel tous les atomes sont ionisés et où les électrons se promènent librement comme dans un métal conducteur. Et comme le métal, le plasma est complètement opaque à la lumière: tout photon tentant de le traverser est immédiatement absorbé par un électron passant dans le coin. Impossible de voir au travers de la surface du soleil, même avec des filtres sophistiqués, car sa surface est justement à l’état de plasma. Notre jeune univers n’est donc devenu « transparent » que lorsque sa température est passée en dessous de 3000 degrés.

Pour calculer à quand remonte cette époque il suffit de savoir comment la température a évolué avec le temps. D’une part elle varie comme l’énergie d’un photon et est donc inversement proportionnelle à la longueur d’onde donc au facteur d’échelle a(t) (voir le billet précédent pour l’explication détaillée).  D’autre par si la matière dominait l’univers à l’époque dont on parle, on a vu que a~t2/3 et donc la température varie comme T~ t3/2 
Reste à mesurer la température actuelle du cosmos (environ 3K), à estimer l’âge de l’univers (un peu plus de 10 milliards d’années) et une règle de trois permet d’estimer à quelle époque l’univers ressemblait à la surface du soleil:
Température Age a(t)
Ajourd’hui 3K 1010 ans 1020/3
Epoque du plasma 3000K Tionisation Tionisation2/3

Impossible de scruter quoique ce soit d’avant 300 000 ans avec nos appareils de mesure! Dès qu’on regarde très très loin dans l’espace, on tombe immanquablement sur ce qui reste du rayonnement de ce plasma initial. Ce fond diffus cosmologique (surface of last scattering) nous parvient sous une forme extrêmement atténuée car sa longueur d’onde a été considérablement augmentée au cours de l’expansion de l’univers et masque complètement ce qui a pu se passer avant cette période.

Carte de la sphère céleste montrant les fluctuations (ou anisotropie) du fond diffus cosmologique observées par le satellite WMAP. Source Wikipedia

Une homogénéité miraculeuse
L’étude du fonds diffus cosmologique a révélé une incroyable homogénéité partout dans l’espace, qui a laissé les chercheurs perplexes. Pour comprendre pourquoi il suffit de songer comme c’est galère de ranger un duvet ou une couette dans son sac une fois qu’on l’en a sorti (sur la photo il s’agit d’un imperméable jetable rangé dans une petite coque rigide).
coque rigide

Il s’agit là d’une illustration toute bête du deuxième principe de thermodynamique: la loi de l’entropie prédit que plus on doit compacter de matière dans un petit espace, plus on a de chances de se retrouver avec des bourrelets partout. Alors imaginez si ce sont des centaines de milliards de galaxie qu’il faut caser dans un volume plus petit qu’une balle de tennis! La logique voudrait que l’univers initial ait été tout « chiffonné », très hétérogène (avec une très grande entropie diraient les physiciens) plutôt qu’au fonds diffus parfaitement homogène que l’on a découvert.

Le mystère est loin d’être anecdotique car cette homogénéité parfaite était absolument nécessaire pour que l’univers puisse voir le jour. S’il y avait eu le moindre grumeau dans la soupe initiale, il aurait attiré par gravité toute la matière environnante et le tout se serait rapidement effondré sur lui-même.Notre monde n’existe que grâce à l’extrême faiblesse de l’entropie initiale de l’univers.

Il y a plus étrange encore. Si la soupe primordiale avait été parfaitement homogène, il n’y aurait eu aucun « germe » de matière à partir desquels se sont formés les amas de galaxie sous l’effet de l’attraction gravitationnelle. Les calculs prédisent qu’il a fallu très exactement 0,001% d’irrégularités pour créer ces germes sans provoquer d’effondrement gravitationnel. C’est pile-poil la valeur que l’on a mesuré dans le fonds diffus cosmologique. Un « fine tuning » presque miraculeux sans lequel le monde que nous connaissons n’aurait eu aucune chance d’exister…

L’inflation primordiale à la rescousse!

Les chercheurs comme Susskind imaginent que la grande homogénéité pourrait s’expliquer si l’univers avait très fortement grandi avant ses 300 000 ans. Imaginez qu’il se présentait au départ (avant que la matière ne se crée) comme un ballon de baudruche tout dégonflé, tout fripé, avec plein de grumeaux. Si vous gonflez très très fort ce ballon, sa surface va se tendre et devenir parfaitement lisse, ses irrégularités locales vont se diluer dans l’espace et localement la surface du ballon paraîtra parfaitement homogène et plate. Ainsi l’univers (le ballon tout entier) serait globalement des milliards de fois plus grand que la minuscule partie constituant notre univers observable (la petite surface de ballon qui nous paraît plane et homogène).

ballon gonfle

On a vu dans le billet précédent que seule l’énergie du vide -qui ne se dilue pas lorsque l’espace se dilate- gonfle exponentiellement l’espace. Le scénario de l’inflation initial suppose que la densité du vide a pu être bien plus grande que maintenant et qu’elle a dominé l’univers avant que celui-ci ne soit rempli de radiations et de matière. Sous l’effet de cette pression répulsive colossale, la taille de l’univers aurait été multipliée par un facteur 1030 durant les 10-35 premières secondes de son existence (l’exposant varie selon les sources, mais on ne va pas chipoter…). Durant cette période la densité d’énergie du vide aurait décru très doucement comme une bille roulant sur un plateau en pente douce, jusqu’à atteindre une valeur critique où elle aurait brusquement chuté et se serait stabilisée au niveau de sa valeur actuelle.

densite du vide

La mécanique quantique prévoit que la densité d’énergie n’est jamais parfaitement homogène partout. Les très légères fluctuations locales de cette énergie colleraient plutôt bien avec la valeur minuscule inhomogénéité de 0.001% dont je viens de vous expliquer l’importance cruciale.

Des brisures de symétrie miraculeuses

Tous les événements importants de l’univers se seraient produits à la fin de l’inflation. Un peu comme un corps qui change de phase quand sa température descend. Or en physique, tous les changements de phase par refroidissement provoquent aussi la perte de certaines symétries du système: – Quand l’eau (ou tout autre liquide) cristallise en glace, ses molécules s’ordonnent selon certaines directions précises au lieu d’être distribuées aléatoirement;- Lorsqu’un métal ferromagnétique est refroidi en dessous de sa température de Curie, il s’aimante subitement et son champ magnétique s’oriente selon une direction privilégiée; – Lorsque la température passe en dessous du seuil de la supraconductivité (ou de la superfluidité), les électrons libres d’un métal ou les atomes d’un liquide cessent de circuler dans tous les sens et synchronisent brusquement leurs mouvements.

De la même manière, de nouvelles propriétés ont pu subitement émerger dans l’univers à mesure qu’il refroidissait. Avant l’inflation il formait une soupe indifférenciée, parfaitement homogène et isotrope, où toutes les interactions faibles, fortes et électromagnétiques étaient unifiées. Dès la fin de l’inflation, vers 10-35 secondes les premières particules (photons, quarks etc) font leur entrée en scène. Vers 10-34 secondes, l’interaction forte se distingue des autres interactions, suivie par la force faible aux environs de  10-12secondes.

Source ici

La prééminence de la matière sur l’antimatière pourrait aussi provenir du même type de brisure de symétrie: A température très élevée, les photons ont suffisamment d’énergie pour donner naissance à des couples de particule-antiparticule. Lors du refroidissement de l’univers, le phénomène s’inverse et chaque particule de matière se détruit au contact de sa jumelle antimatière, en libérant  un photon à chaque fois. Or s’il y avait eu exactement autant de matière que d’antimatière, cette grande annihilation collective aurait vidé entièrement l’espace et nous ne serions pas là pour en parler. On suppose donc qu’il a pu se trouver par hasard un très très léger déséquilibre dans  le nombre de particules et d’antiparticules, de l’ordre de 1 pour 1 milliard. Ce tout petit déséquilibre expliquerait que l’antimatière ait entièrement disparu et que les photons soient environ 1 milliard de fois plus nombreux que les particules de matière. Toute la matière de l’univers actuel ne serait que le minuscule résidu de l’impitoyable guerre entre matière et antimatière dont seule une particule sur un milliard est sortie vivante. Nous sommes peu de choses…

Quand la symétrie d’un système se brise, il est en général difficile d’en prédire l’issue exact: quand une toupie ralentit, on sait qu’elle va tomber mais il est impossible de savoir de quel côté. Lorsque le générateur à eau de Kelvin se charge spontanément d’électricité, bien malin qui pourra deviner par avance lequel des deux récipients sera le pôle positif. Il en va de même pour pour les constantes fondamentales qui sont associées aux masses des particules élémentaires, ou aux caractéristiques des interactions fondamentales (qu’on appelle aussi constantes de couplage). Or les physiciens sont perplexes car si ces constantes fondamentales avaient été différentes de leur valeur actuelle, le monde qui nous entoure n’aurait pas eu la moindre chance de se créer. Les noyaux atomiques n’existent que parce que la constante de structure fine (qui caractérise la force faible) vaut exactement 1/137, que les quarks sont incroyablement légers, que la force électromagnétique est très faible à courte portée etc. Les galaxies n’ont pu se former que grâce à l’extrême faiblesse de la constante de gravité G, à la minuscule valeur de la densité du vide etc. Bref, les conditions grâce auxquelles nous sommes là relève d’un très très improbable concours de circonstances, de l’ordre d’une chance sur plusieurs millions de milliards! Par quel miracle existons-nous? Cette éternelle interrogation métaphysique est redevenue d’actualité sous l’appellation moderne de « principe anthropique ».

Le scénario des multivers: science ou fiction?

Source Gabriel Caprav

Il n’y a pas trente-six possibilités pour aborder le problème:

– soit on se dit qu’il existe une règle encore inconnue qui explique pourquoi les constantes fondamentales ont pris pile poil les bonnes valeur. Le problème c’est que les chercheurs ne voient pas quel principe pourrait justifier une telle règle…

– soit on déclare la science forfait et on invoque une explication mystique, volonté supérieure, dessein intelligent, etc.

– soit on s’en remet aux statistiques: pour que l’improbable se réalise, il suffit de tenter sa chance suffisamment de fois! L’univers dans lequel nous sommes ne serait qu’un exemplaire particulier parmi un nombre prodigieusement élevé d’autres univers formés en d’autres temps et en d’autres lieux, avec chacun des paramètres physiques différents. Un peu comme la bibliothèque imaginaire de Borgès qui contient tous les livres possibles comptant 410 pages sur lesquels sont imprimés une combinaison unique de 25 symboles (22 lettres et 3 signes de ponctuations). Dans une telle bibliothèque tous les chef-d’oeuvre existent (pourvu qu’ils tiennent en 410 pages), il suffit de bien chercher pour les trouver. C’est ce scénario de « multivers » que défend Léonard Susskind et avec lui un nombre croissant de physiciens, afin d’expliquer l’improbable combinaison gagnante qui fait de notre univers un système propice à la vie.

Source ici

Pure spéculation? Pas forcément. Plusieurs arguments viennent appuyer cette hypothèse.

1) La théorie des cordes, l’une des seules théories cohérentes permettant d’unifier la mécanique quantique et la relativité générale, prévoit justement d’immenses degrés de libertés dans les types d’univers possibles. C’est d’ailleurs ce que lui reprochent des détracteurs comme Lee Smolin: quel est l’intérêt d’une théorie qui autorise jusqu’à 10 500 configurations d’univers possibles? Mais vu sous l’angle du principe anthropique, ce qui passait pour une faiblesse devient un véritable argument en faveur d’une explication statistique du principe anthropique. Après tout il n’y a rien de miraculeux à tirer au sort une valeur égale à 10-121 si l’on fait 10500 tirages différents.

2) L’inflation initiale a doté l’univers d’une taille gigantesque, s’étendant bien au-delà de la dizaine d’années-lumières de notre univers observable. Une immensité idéale pour qu’un nombre suffisamment grand de parcelles d’espaces puissent laisser leur énergie du vide prendre toutes sortes de valeurs différentes sous l’effet des fluctuations quantiques. Ces parcelles formeraient ensuite autant de « bulles-univers » vivant leur propre destin gouverné par un ensemble de constantes fondamentales particulières:

Je vois aussi un argument encourageant dans le fait que l’univers finisse complètement vide, exactement comme il a commencé. En effet, lorsque les étoiles auront toutes épuisé leur carburant interne, elles s’effondreront sur-elles mêmes et termineront toutes en trous noirs, dans environ 10100 ans. Mais les trous noirs eux-mêmes ne sont pas éternels car ils « s’évaporent » très lentement. D’après l’astrophysicien Sean Carroll notre espace redeviendra entièrement vide d’ici 10 puissance 10123ans.

histoire univers

Le cycle est certes effroyablement long, mais on sera finalement revenu à la case départ, avec la possibilité de fluctuations quantiques qui peuvent donner lieu à un nouveau big bang, avec d’autres valeurs pour l’énergie du vide, donc d’autres brisures de symétries et finalement d’autres constantes fondamentales pour le nouvel univers. Sur une échelle extraordinairement grande, disons sur 10 puissance 10 puissance 101000 ans,  des milliards de milliards d’univers auraient ainsi la possibilité de se succéder les uns derrière les autres. Notre univers actuel ne serait qu’un de ces innombrables univers qui, par hasard aurait pioché les bonnes valeurs permettant à la vie d’exister.

Longue vie au proton!

Évidemment tout ça reste très spéculatif. Un scénario aussi loufoque ne gagnera ses galons de crédibilité scientifique qu’à condition de faire quelques prédictions permettant d’en tester la validité. Ce n’est évidemment pas facile puisque les autres univers sont par définition hors de notre portée. On peut cependant tester indirectement la validité du concept en trouvant des constantes pour lesquelles le principe anthropique fixe un minimum mais pas de maximum (ou l’inverse). Si la théorie des multivers est avérée, la statistique voudrait que la mesure de la constante n’ait rien à voir avec la valeur critique calculée au moyen du principe anthropique.

Bon, c’est un peu abstrait alors prenons l’exemple du proton. Nous ne pourrions exister si le proton avait une durée de vie trop courte, car sa désintégration signifierait celle des noyaux atomiques dont est constitué l’univers. Vu la quantité de protons qui forme notre organisme, Susskind estime qu’une durée de vie supérieure à un million de fois l’âge de l’univers (1016 années) est nécessaire à notre survie. Or jusqu’ici toutes les expériences tentant de détecter une désintégration spontanée de proton ont échoué, ce qui implique une longévité du proton supérieure à 1033ans. Bien au-delà de ce qu’exige le principe anthropique, et donc en parfaite cohérence avec une théorie de type multivers. C’est mince comme confirmation, mais c’est un début. Reste à espérer qu’on trouvera d’autres manières de multiplier ce genre de tests prédictifs pour faire avancer la réflexion.

Bien sûr, il y a beaucoup d’autres théories concurrentes de celle-ci, mais je trouve amusante l’idée que la physique moderne emprunte à la biologie des concepts qui lui étaient plutôt étrangers jusqu’ici, comme le hasard et la sélection naturelle (pour la prolifération des univers), ou encore l’émergence et l’auto-organisation (pour les propriétés physiques de notre univers). Et comme en biologie, on en revient finalement au bon vieux débat entre les tenants d’une explication divine et ceux qui comme Laplace bataillent pour ne pas avoir besoin de faire cette hypothèse.

Sources:
Léonard Susskind, Le paysage cosmique (2007) et ses cours de Stanford (sur Youtube)
Le Dossier de Pour la Science sur la face cachée de l’Univers (avril-juin 2011)
Regardez aussi ce très bon show de Sean Carroll sur le sujet:

7 comments for “Cosmologie fastoche (3/3)

  1. Stéphane Laborde
    30/05/2011 at 08:09

    >Excellent encore !Une remarque dans le fil des mes précédentes remarques :Théorie des cordes et gravité quantique à boucle ne remettent pas en cause les concepts physiques fondamentaux = "particules" constituantes de la matière, temps défini sur la base du Cesium-133…Or ces concepts impliquent une certaine causalité subjective qui n'est pas valable là où ces éléments n'existent pas (avant le Cesium-133, avant l'existence de telle ou telle particule).Réinterpréter l'Univers en considérant comme une sphère fixe où les éléments se contractent les uns par rapport aux autres, et où le temps universel se définit relativement au décalage vers le rouge de la lumière d'une sphère de galaxies donnée, donne une toute autre interprétation de la physique.Nous pouvons suggérer une organisation du processus d'évolution, comme une suite d'objets physiques émergents d'une organisation précédente.Le sens de l'observation est alors un sens d'ordonnancement des objets observables qui changent de nature en définissant un ordre de grandeur entre anciens ordres et nouveaux ordres.On tient compte alors de la naissance de tel ou tel objet dans l'Univers observable (naissance du Cesium-133), et de sa mort observable (fin de la possibilité d'observer le Cesium-133).Le rapport à la causalité n'est alors plus down <-> top, mais global <-> local.

  2. Stéphane Laborde
    07/06/2011 at 22:22

    >bah

  3. Stéphane Laborde
    15/06/2011 at 12:33

    >En réalité "l'étalon vitesse lumière" ne tient pas plus la route que "l'étalon espace-temps".Penser qu'on peut étudier un "espace-temps" en se basant sur une vitesse de la lumière invariante est une absurdité.La vitesse de la lumière invariante induit un espace-temps relatif. Inversement un espace-temps en tant qu'entité globale invariante implique une vitesse de la lumière relative.La question qu'il convient de se poser n'est ni l'une ni l'autre. La question qu'il convient de se poser c'est :Quel est la trajectoire d'existence de l'observateur qui reçoit l'information l'analyse et la conceptualise ? Quel est-il ? Où commence-t-il ? Où finit-il ? Quelle est sa vitesse ? Quelle est sa taille ? Qu'est-ce qui est accessible à sa connaissance, et qu'est-ce qui ne l'est pas ?Alors les théories possibles apparaissent.

  4. Xochipilli
    15/06/2011 at 22:02

    >@Stephane: là stéphane tu m'as définitivement largué, mais je trouve que c'est une jolie manière de conclure cette série de billet 😉

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *