jeudi 27 janvier 2011

Cataclysme cosmique dans la Girafe

Le 5 janvier 2011 l'astronome amateur Koichi Itagaki (attention page en italien - passer par Google traduction) a observé l'apparition d'une nouvelle étoile sur les images numériques prises à l'aide de son observatoire personnel. Il faut dire que cet agriculteur japonais n'en est pas à sa première trouvaille astronomique, puisqu'il a à son actif la découverte de 66 supernovae et de 3 comètes ! Certes le matériel dont il dispose est impressionnant, mais c'est bien un amateur, passionné du ciel et il a été plus prompt à faire cette découverte que tous les grands programmes professionnels de surveillance systématique du ciel.

L'image ci-dessous, réalisée par Koichi Itagaki, montre la galaxie NGC2655 située dans la constellation de la Girafe à 3 dates successives. Le 2 janvier, il n'y a rien de particulier, le 5 on discerne à peine un petit point lumineux et le7 janvier aucun doute n'est possible le petit point est devenu une étoile bien brillante. Celle-ci étant proche de la galaxie NGC2655, il était très vraisemblable qu'il s'agissait d'une supernova, c'est-à-dire de la manifestation de l'explosion cataclysmique d'une étoile.
Série d'images de la galaxie NGC2655 montrant l'apparition de la supernova (copyright Koichi Itagaki

Les télescopes professionnels ont rapidement confirmé la découverte et  un suivi systématique de l'évolution du phénomène a été entrepris par les professionnels et les amateurs. L'intensité lumineuse de la supernova qui augmentait régulièrement les premiers jours, semblent maintenant se stabiliser. Je n'ai pas pu trouver de références professionnelles mais il semble bien que le spectre, c'est-à-dire l'ensemble des différentes longueurs d'ondes qui composent la lumière de la supernova, ne contient pas les raies caractéristiques de la présence d'hydrogène. Ceci est typique d'une supernova de type 1A formée lorsque dans un système binaire composée d'une naine blanche et d'une étoile géante, la naine blanche qui accrête la matière provenant de sa compagne finit par dépasser un seuil de masse  qui provoque un échauffement très important de l'étoile qui engendre la fusion thermonucléaire du carbone puis de l'oxygène. Ces processus se produisent en quelques secondes et l'étoile explose littéralement, dispersant dans l'espace quantité d'éléments lourds. L'énergie libérée est gigantesque, au point que la supernova devient aussi brillante que des milliards de soleils.

L'image ci-dessous a été prise par mes soins le 23 janvier, on voit que la supernova est quasiment aussi lumineuse que le cœur de la galaxie qui l'héberge. 

Les autres étoiles visibles sur l'image sont situées dans notre propre galaxie et sont donc très proches de nous à l'échelle cosmique. La supernova baptisée SN2011B est quant à elle, située à environ 60 millions d'années-lumière de la Terre. Ceci signifie que l'explosion s'est produite il y a 60 millions d'années et la lumière ne nous arrive que maintenant. Pour comparaison, Il y a 60 millions d'année, la Terre traversait l'époque du Paléocène et voyait naitre ses tout premiers primates. Inutile de dire qu'avec l'énergie dégagée, s'il y avait  de la vie dans un rayon de quelques années-lumière autour de la supernova, celle-ci a dû être balayée instantanément. On a donc affaire à un évènement réellement cataclysmique, mais c'est aussi grâce à eux que les éléments lourds sont synthétisés et que ceux-ci se retrouveront un jour déposés sur quelques planètes lointaines afin de faire vivre quelques êtres intelligents ou censés l'être... C'est ce phénomène qui a fait dire à l'astrophysicien Hubert Reeves que nous sommes "poussières d'étoiles".

mercredi 19 janvier 2011

Une sombre histoire d'énergie noire…

Au début du XXe siècle la science considérait l'Univers comme étant statique,  immuable et relativement homogène. La notion même de galaxie n'existait pas encore et il faudra attendre 1923 et Edwin Hubble pour réaliser que les taches floues observées par les astronomes et alors baptisées nébuleuses sont des "univers-îles" c'est-à-dire des galaxies semblables à la nôtre et constituées de myriades d'étoiles.

L'Univers est donc statique et Einstein est un peu perturbé lorsqu'il constate que sa théorie de la gravitation (la relativité générale) prédit naturellement un univers en expansion. Il trouva cela tellement peu naturel qu'il crut bon d'ajouter une constante dans ses équations afin de rendre (artificiellement) l'univers statique.

Entre 1925 et 1929 Edwin Hubble et Milton Humason (je conseille de lire sa fiche Wikipedia car son histoire est savoureuse…) en observant le décalage vers le rouge des spectres  de certaines étoiles extragalactiques nommées céphéides dont on est capable de déterminer la distance, découvrent que celles-ci semblent s'éloigner de nous et ceci d'autant plus vite qu'elles sont situées à une grande distance. Hubble et Humason établissent la loi dite de Hubble qui relie la distance des objets cosmiques à leur vitesse de récession, sans parait-il en saisir toute la portée.

Entre temps et indépendamment, Alexandre Friedmann et le chanoine Georges Lemaître ont réalisé que les équations de la relativité générale prédisent un Univers en expansion. Les mesures de Hubble et Humason confirment donc cette prédiction remarquable. La controverse scientifique battra son plein pendant des années avant que ne s'impose cette théorie dite du "Big Bang", sobriquet inventé par l'astronome Fred Hoyle qui était convaincu que l'Univers était stationnaire.

L'incrédulité étant passée, tout allait bien avec l'Univers en expansion et la loi de Hubble qui relie la vitesse de récession des objets cosmiques à leur éloignement (plus un objet est loin plus il semble s'éloigner de nous à une grande vitesse). Le principal problème était alors de mesurer précisément la constante de Hubble et de déterminer la géométrie de l'Univers : plat (la gravité et l'expansion se compensent exactement, l'expansion est infinie mais tend à s'arrêter), fermé (la gravité l'emporte et l'Univers se recontracte), ou bien ouvert (l'expansion l'emporte et l'Univers se dilue à l'infini).

Pour tirer au clair cette affaire de géométrie de l'Univers, les astrophysiciens devaient trouver le moyen de mesurer le plus précisément possible la vitesse d'éloignement d'objets lointains situés à une distance connue. Pour cela ils ont recherché des "chandelles standards", c'est-à-dire des astres dont les caractéristiques physiques permettent de déterminer leur luminosité intrinsèque. En comparant la luminosité intrinsèque à la luminosité apparente mesurée depuis la Terre, il est facile de déterminer la distance de l'objet. Pour ce faire, Edwin Hubble avait utilisé des étoiles variables appelées Céphéides (l'étoile Polaire par exemple) dont le très fort éclat varie selon une période qui dépend de sa luminosité intrinsèque. Ces "chandelles" sont fiables, mais on ne peut les discerner que si elles ne sont pas trop éloignées et cela limite l'exploration à la proche banlieue de la Voie  Lactée. Afin de sonder l'Univers plus lointain, les astronomes utilisent des astres ayant une luminosité bien plus grande que les Céphéides, il s'agit de supernovae d'un type bien particulier dit "1A", dont le processus de formation est supposé suffisamment bien compris pour qu'on puisse déterminer la luminosité absolue de la supernova en observant précisément l'évolution du spectre de la lumière qu'elle émet. Le problème est qu'il y a très peu de supernovae qui explosent et seulement une fraction d'entre elles sont du type 1A. De plus, pour qu'elles soient exploitables pour mesurer l'Univers, il faut les détecter très tôt après l'explosion et suivre leur évolution. Il faut donc des télescopes dédiés qui scrutent le ciel en permanence à la recherche d'une étoile qui s'allume dans une lointaine galaxie.
La supernova SN2005cs dans la galaxie M51 située à 31 millions d'années-
lumière, photographiée avec mon matériel d'amateur en 2005. Les autres
étoiles appartiennent à notre propre galaxie et sont donc beaucoup plus
proches.
En résumé la mesure de l'évolution du spectre d'une supernova permet de remonter à sa luminosité intrinsèque donc à sa distance. La mesure du décalage vers le rouge de sa lumière est reliée à la vitesse à laquelle l'espace situé entre l'observateur et la supernova se dilate sous l'effet de l'expansion de l'Univers.

En 1998, deux équipes concurrentes : le Supernova Cosmology Project et le High-Z Supernova Search Team,  collectent depuis quelques années des données sur les supernovae 1A, toutes deux s'attendent à trouver des indications en faveur d'un ralentissement de la vitesse d'expansion de l'Univers. Si tel était le cas, une supernova très lointaine (c'est-à-dire qui s'est allumée il y a très longtemps) devrait s'éloigner proportionnellement plus vite qu'une supernova proche (c'est-à-dire qui s'est allumée récemment).  Curieusement les deux équipes observent exactement l'inverse ! La conclusion est donc que l'expansion de l'Univers est actuellement en train de s'accélérer.

Cette curieuse observation a depuis été confirmée par d'autres équipes et par d'autres méthodes, en particulier les mesures du rayonnement de fond cosmologique, c'est-à-dire de la lumière émise environ 380 000 ans après le Big-Bang, au moment où l'Univers est devenu transparent pour le rayonnement, indique qu'une mystérieuse forme d'énergie dite "noire" ou "sombre" contribue pour plus de 70% à la densité d'énergie de l'Univers. C'est cette énergie noire qui est responsable de l'expansion accélérée de l'Univers. 

Nous n'avons actuellement que des idées très spéculatives sur la nature de l'énergie noire. Pour avancer dans la compréhension et la caractériser, il faut réaliser des mesures plus précises en sondant l'Univers.  En gros, deux types de modèles s'affrontent: soit la densité d'énergie noire est uniforme et constante dans l'Univers, auquel cas cela plaide en faveur d'un terme supplémentaire dans les équations de la relativité générale, il s'agit d'une constante cosmologique telle que celle qu'Einstein avait introduit pour rendre l'Univers statique (ironie !). Soit la densité d'énergie noire  n'est pas constante, et on a affaire à un modèle de "quintessence" (le cinquième élément) nommé ainsi comme un clin d'œil aux quatre éléments des grecs: la terre, l'air, l'eau et le feu, devenus pour les cosmologistes la matière ordinaire, la matière noire froide, le rayonnement et les neutrinos. Le cinquième élément serait une sorte d'Éther emplissant tout l'espace.  Les deux possibilités ne sont pas faciles à distinguer, car il est possible que les variations de la densité d'énergie noire soient très subtiles.

Dans tous les cas, les physiciens sont face à un problème majeur, l'énergie noire est peut-être l'arbre qui cache la forêt et un pan entier de nouvelle physique est peut-être sur le point d'émerger. De la compréhension de ce problème résultera notre connaissance de l'avenir de l'Univers ; celui-ci se recontractera-t-il  pour  renaitre dans un nouveau Big-Bang, ou bien au contraire l'énergie noire deviendra-t-elle à ce point prépondérante que la matière elle-même se disloquera (Big-Rip) ? Il est en effet tout à fait possible que nous vivions actuellement dans une phase très particulière et éphémère de l'Univers. Alors profitons en avant de peut-être disparaitre à jamais !

mercredi 12 janvier 2011

Une page se tourne

Aujourd'hui est un triste de jour : Pier Oddone, le directeur du Fermi National Accelerator Laboratory plus connu sous le nom de Fermilab, vient d'annoncer qu'il n'avait pas pu obtenir les crédits nécessaires au fonctionnement de l'accélérateur Tevatron et que celui-ci s'arrêterait donc définitivement à la fin de l'année 2011. Cette décision va à l'encontre de l'avis du très sérieux HEPAP (High Energy Physics Advisory Panel) qui avait recommandé de faire fonctionner cet accélérateur jusqu'à la fin 2013. Au-delà des difficultés budgétaires, il est probable que l'excellent fonctionnement du LHC en 2010 et la très probable décision de ne pas procéder à l'arrêt technique initialement prévu en 2012 a dû contribuer à pousser Fermilab à stopper le Tevatron.
Le bâtiment principal de Fermilab et le lac

Le Tevatron accélère en sens inverse un faisceau de protons et un faisceau d'antiprotons et les fait entrer en collision au centre de deux grands détecteurs : CDF et D0. L'énergie de chacun des faisceaux est de pratiquement 1 TeV (Tera électronVolt) soit  l'énergie acquise par un électron soumis à une différence de potentiel de 1 million de milliards de volts. C'est à cette énergie, quelque peu mythique lors de sa construction, que fait référence son nom.

Le Tevatron a été une machine d'avant-garde, entièrement constituée d'éléments supraconducteurs. Il y a en effet près d'un millier d'aimants en alliage niobium-titane capable de fournir le champ magnétique intense nécessaire au guidage des faisceaux. Les débuts furent difficiles et je me souviens de collègues partis en séjour postdoctoral à Fermilab et qui sont revenus en France sans avoir vu le faisceau. Mais une fois la machine au point, les deux collaborations internationales CDF et D0 ont fourni  une moisson de résultats de physique dont la découverte en 1995 du "top", dernier élément de la famille des quarks.

Avec le démarrage du LHC an 2009, la compétition entre le CERN et Fermilab pour la découverte du Higgs était lancée. Aujourd'hui le Higgs n'est pas encore découvert mais le LHC, au CERN, avec son énergie supérieure, s'annonce mieux placé pour le découvrir. C'est peut-être une excellente opportunité pour l'Europe scientifique, mais c'est un déchirement de voir une aussi belle machine s'arrêter. J'ai vécu personnellement l'arrêt de deux grands accélérateurs, le LEP au CERN et PEP II au SLAC, ce ne sont pas des bons souvenirs...

Fermilab doit maintenant rebondir et assurer au mieux son ambitieux programme de recherche sur la physique des neutrinos. D'autres projets sont à l'horizon, notamment avec "Project X" qui vise à réaliser un accélérateur de protons à très haute intensité (et non pas énergie), brique de base vers une nouvelle génération d'expériences sur les neutrinos et de façon ultime vers un collisionneur de muons. Heureusement les coupures budgétaires ne brident pas l'imagination des physiciens et gageons que ceux-ci sauront se montrer suffisamment convaincants pour trouver les moyens de concrétiser leurs plus fantastiques idées.