samedi 14 juin 2014

Un oeil de libellule pour observer les galaxies

Les modèles cosmologiques actuels basés sur l'existence d'une fraction importante de matière noire froide permettent de décrire la formation des grandes galaxies par interactions et accrétions successives de petites galaxies. On s'attend donc à trouver un nombre relativement important de galaxies naines à proximité des grandes galaxies et à observer des sous-structures dans les halos, réminiscence des fusions passées. Or, si on observe bien quelques traces de ces "graines" de galaxies à proximité de notre Voie Lactée ou de sa voisine M31, celles-ci sont sont bien moins nombreuses que ce que prédisent les modèles. Le problème est donc de déterminer si ce déficit correspond à une mise en défaut des modèles théoriques ou si le signal recherché est simplement trop ténu pour être détecté avec des moyens conventionnel.

L'instrument Dragonfly avec ses huit objectifs Canon
installés sur une monture Paramount ME-II
 http://dunlap.utoronto.ca/instrumentation/dragonfly/
Dans le domaine de l'astronomie, quand on recherche un signal tellement faible qu'il n'a pu être détecté par les télescopes les plus puissants, la réponse expérimentale consiste souvent à imaginer un instrument, plus grand, plus sophistiqué et ... plus cher ! Dans le cas qui nous occupe, la démarche de Roberto Abraham de l'Université de Toronto a été complètement différente ; son idée fut de créer un appareillage extrêmement sensible à partir de matériel du commerce. C'est ainsi qu'est né le projet Dragonfly, la "libellule". Ici, pas de télescope, mais un ensemble de huit objectifs photographiques Canon 400 mm f/2.8 L IS II USM, qui sont certes de belles bêtes (11 500$ pièce) mais disponibles sur le net ! Les huit objectifs sont équipés de caméras CCD STF-8300M de la marque SBIG dont certains astronomes amateurs sont équipés. L'ensemble est monté sur une monture allemande Paramount ME-II disponible également dans le commerce.

Les huit objectifs et caméras pointent vers la même direction dans le ciel et prennent des images simultanément qui seront ensuite combinées afin de produire une image unique équivalente à ce que photographierait un instrument optique de 400 mm de focale et ouvert à f/1.0. Ce montage permet de collecter un maximum de lumière en un minimum de temps. La qualité optique des objectifs permet d'atteindre un niveau de sensibilité inégalé sur les objets les plus faibles, avec très peu de reflets parasites et tout en offrant un champ important de 2.6 x 1.9 degrés.

Entre mai et juin 2013, Dragonfly a accumulé 35h de poses sur une région centrée sur la galaxie M101 et a pu mettre en évidence sept galaxies ayant une très faible luminosité surfacique qui n'avaient jamais été repérées jusqu'à présent. Bien qu'en l'absence de mesures de distance il soit impossible d'avoir la certitude que ces galaxies naines sont liés gravitationnellement à M101, les auteurs pensent qu'il y a une forte probabilité que cela soit le cas. Par contre les mêmes images n'ont permis de détecter aucune sous-structures évidentes dans M101 elle-même.
Les sept galaxies à très faibles luminosités surfaciques observées par Dragonfly - A. Merritt et al.
arXiv:1406.2315v1
M101 est le premier objet photographié avec Dragonfly, d'autres pointés permettront de rechercher des sous-structures ténues et des galaxies naines dans et à proximité d'autres galaxies, permettant ainsi de confronter les modèles de formation des grandes galaxies aux observations. À noter que les performances de Dragonfly peuvent encore être améliorées en ajoutant de nouveaux ensembles objectifs + caméras aux huit déjà existants.

Il reste certainement énormément de galaxies naines à découvrir dans la banlieue de  nos grandes voisines, je me demande si certaines d'entre-elles seraient à la portée d'astronomes amateurs bien équipés ???

Références :



dimanche 15 décembre 2013

M33 - La galaxie du triangle

La galaxie du triangle porte le numéro 33 dans le catalogue établi par Charles Messier, c'est une proche voisine puisqu'elle fait partie du groupe local avec notre Voie Lactée, la galaxie d'Andromède (M31) et quelques dizaines d'autres galaxies plus petites. Elle se situe à une distance comprise entre 2.3 et 3 millions d'années-lumière de la Terre. Elle est parait-il discernable à l’œil nu par des nuits bien noires depuis des sites protégés de la pollution lumineuse.

Cette galaxie spirale s'étend sur plus d'un degré, c'est à dire deux fois le diamètre apparent de la pleine Lune ! On a du mal à imaginer que ces objets célestes que l’œil perçoit à peine sont en fait aussi étendus. Notre perception de la sphère céleste serait d'ailleurs complètement différente si nous disposions d'yeux plus grands, nous permettant de recevoir plus de lumière. Nous serions sans doute bien éblouis par la pleine Lune,  mais par nuit noire nous verrions très bien la galaxie d'Andromède et celle du Triangle comme de belles spirales couvrant un bon morceau de ciel !

Ne disposant pas de tels yeux, il faut utiliser un télescope où une lunette, associé à une caméra CCD et faire des poses longues pour accumuler  suffisamment de lumière et révéler les détails de cette magnifique galaxie.

L'image ci-dessous a été réalisée lors d'un périple dans le désert Mojave en Californie avec une petite lunette de 66 mm de diamètre pour 400 mm de focale et équipée d'une caméra CCD. Un deuxième télescope monté en parallèle et associé à une seconde caméra CCD, permet d'asservir les moteurs de la monture équatoriale afin de compenser le mouvement apparent de la sphère céleste. Sans cet asservissement la durée des poses serait limitée par les défauts mécaniques de la monture.






La luminance (image en nuances de gris) a été réalisée à partir de 43 poses de 2.5 minutes, la couleur est une combinaison de 3 séries d'une vingtaine de poses de 3 minutes en positionnant des filtres colorés rouge, vert et bleu, devant la caméra. La combinaison de l'ensemble donne l'image ci-dessus.

Étant daltonien l'équilibrage des couleurs est pour moi un exercice particulièrement difficile. Voici ci-dessous l'image en niveau de gris :




























Et après avoir essayé l'excellent logiciel PixInsight, je suis finalement arrivé à ceci, où les nébulosités autour de la galaxie sont mieux mises en évidence. Je suis mal placé pour juger de la couleur, mais ça me semble quand même mieux.






















vendredi 13 septembre 2013

A freedom to fail

Suite à une conférence localisée sur le campus de l'université de Stanford, je faisais la remarque qu'avec des moyens financiers importants et bien utilisés il est vraiment possible de faire des choses extraordinaires. Tout est au rendez-vous : la qualité de l'enseignement, le cadre de vie, les équipements scolaires et sportifs, l'excellence de la recherche et au bout du compte des résultats impressionnants quant à la réussite des étudiants. Un ami me disait : "La bonne question c'est pourquoi on n'a pas la même chose en France ?" Bonne question effectivement… à laquelle la réponse n'est pas forcément évidente. On ne transpose pas facilement un modèle d'un pays à un autre sans prendre en compte des différences culturelles marquées, et un environnement différent.
La tour Hoover sur le campus de Stanford
La première chose est la sélection par l'argent, une année scolaire à Stanford coûte une petite fortune qui place ce genre d'université hors de portée du plus grand nombre. Bien entendu il y a des bourses pour les très bons étudiants qui permet de "récupérer" quelques esprits brillants au porte-monnaie léger qui viendront renforcer l'excellence de l'université. À noter d'ailleurs que le maintien de l'excellence de l'université lui permet de garder des frais d'inscription élevés, donc en simplifiant un peu, on peut dire que les bourses d'excellences  décernées aux jeunes sans le sou  permettent de garantir des revenus importants aux universités.  Tiens, voilà un paradoxe qui aurait plu à mon père !

Par contre, les un peu moins bons et tout aussi peu fortunés n'auront pas accès à ce genre d'université.  À mon avis, c'est là que le bat blesse car je suis convaincu que l'une des missions principales de l'université - et de l'éducation en général d'ailleurs - est de tirer l'ensemble de la société vers le haut et pas seulement d'alimenter le haut du panier avec une élite.

En France, l'approche est différente, l'université ne sélectionne pas à l'entrée, du moins elle prétend ne pas le faire. Quelle hypocrisie ! La sélection se fait un peu plus tard de manière impitoyable et avec un gâchis phénoménal. Le maintien à tout prix et à grands cris de la non sélection des étudiants à l'entrée est une erreur et un mauvais combat (je n'ai pas toujours pensé cela…) le vrai scandale est plutôt la très grande difficulté de changer de voie lorsqu'on s'est trompé et le côté impitoyable du système qui une fois qu'il vous a éliminé rend très difficile l'accès à une seconde chance. Je pense qu'il faudrait instaurer une sélection "juste" à l'entrée de l'université et surtout mettre en place les passerelles pour changer de voie et les échelles de secours pour permettre à ceux qui ont raté la marche de remonter. Il est effarant de constater que tout se joue au moment où les  jeunes n'ont pas la maturité nécessaire, rarement une vision de leur avenir et souvent pas l'envie de faire des choix de vie importants, parce qu'il y a d'autres centres d'intérêts bien plus attractifs à cet âge. Heureux ceux qui ont la chance d'avoir des parents aptes à les guider, heureux ceux qui ont accès aux cours supplémentaires, bienheureux ceux qui n'ont pas à se dépatouiller dans toutes sortes de problèmes sociaux, familiaux ou culturels. 

Le système scolaire tel qu'il est fait actuellement écrème et tire vers le bas. Les enseignants n'y sont pour rien, la plupart du temps ils donnent tout pour faire avancer les jeunes, c'est le système qui est vicié. On commence avec une soi-disant carte scolaire sensée assurer la mixité sociale, c'est déjà mal parti lorsqu'on habite un quartier défavorisé ! Ensuite vient l'hypocrisie des options : allemand première langue et latin pour être sûr d'être avec les meilleurs… bah oui, c'est sûr qu'allemand première langue c'est une bonne idée quand tout se passe en anglais dans la vraie vie ! Pas grave, papa et maman paieront les cours de rattrapage et les séjours linguistiques… La période lycée arrive… surtout trouver le moyen de mettre son rejeton dans un bon lycée. Ah tiens, je croyais que la carte scolaire assurait la mixité sociale et la saine émulation ? Avec un peu de sou, on pourra facilement louer ou acheter un petit pied à terre à proximité du lycée Henri IV, cela donnera les meilleures chances à la petite... Bien sûr la façon dont j'écris cela est caricaturale, mais tout de même l'idée est là.

Je pourrais aussi parler de l'évaluation qui évalue surtout la capacité à apprendre, des programmes qui développent peu la réflexion et ne donne pas souvent envie d'approfondir, des grandes écoles qui formatent au lieu de former les esprits, et encore de bien d'autres choses qui me fâchent… 

Pour en revenir au modèle Stanford, je crois qu'il faut prendre le problème par le bon bout : commençons par remettre sur pied un système éducatif performant et juste, depuis la maternelle  jusqu'au lycée. Donnons des chances à chacun, permettons aux enfants de se tromper ou de faire des bêtises et donnons leur les chances de rectifier le tir. Cela fait, il sera alors temps de mettre de vraies priorités financières dans des universités d'excellences ouvertes à toutes celles et ceux qui ont le goût et les capacités pour faire des études longues.

Stanford a une autre caractéristique intéressante ; le campus est situé au cœur de la Silicon Valley qui est un extraordinaire moteur pour l'économie, l'innovation et l'esprit d'entreprendre. Les Apple, Yahoo, eBay, Google, etc. sont les produits directs de cette machine. Stanford fournit des talents, la Valley leur permet de s'exprimer  et les capitaux suivent. Lors de la conférence sur les très grandes bases de données à laquelle je participais cette semaine, un "venture capitalist" est venu nous expliquer sa recette pour faire quelque chose de "Grand". Le cabinet dans lequel travaille ce monsieur finance l'innovation en sachant que sur 10 startups, 9 n'aboutiront pas. Mais comme il le disait dans sa conclusion : 

"The Valley is a great place : great access to capital,  great community, great wines, … but likely most important : A freedom to fail !"

À propos d'éducation je conseille de lire cet excellent article, ici.

J'avais aussi écrit quelque chose sur ce blog ici et .

dimanche 28 avril 2013

Des matériaux inattendus pour les détecteurs de particules

Lorsqu'ils conçoivent un appareillage les physiciens rêvent souvent d'objets impossibles à réaliser. Idéalement le détecteur de particules parfait devrait être composé uniquement de matériaux actifs et n'avoir besoin d'aucune structure mécanique pour le soutenir ! Lors des premiers "brain storming" qui ont lieu lors de la formation des  nouvelles collaborations, on voit souvent fleurir tout un ensemble de concepts tout aussi magnifiques qu'irréalistes sur le plan technique ou financier.
Les ingénieurs chargés de la réalisation effective des appareillages remettent alors un certain nombre de pendules à l'heure et proposent des alternatives techniquement réalisables ou financièrement accessibles. Il faut alors faire des compromis en acceptant de dégrader un peu les performances. Tout un jeu de réflexions, discussions, voire de négociations s'engagent alors, pour finalement converger vers un design raisonnable. Parfois, l'impossible devient réalité au prix d'astuces improbables et de matériaux inattendus.

Le premier exemple concerne les expériences enterrées profondément dans des mines ou autres tunnels de montagne. Ces emplacements sont recherchés afin de protéger les équipements du rayonnement cosmique qui perturberait les expériences. La traque de la matière noire se fait ainsi, outre le fait d'être situés sous terre, les détecteurs sont placés dans des blindages ayant pour but de stopper les effets de la radioactivité naturelle, source de photons, de neutrons et autres particules pouvant mimer les effets des très rares interactions de particules de matière noire. 
Lingots de plomb archéologique retrouvés dans
une épave au large de Plomanac'h
Parmi les différents blindages, le Plomb est particulièrement efficace pour bloquer la radioactivité ambiante. Le problème est que le minerai de plomb contient également  un peu d'uranium 238 dont la demi-vie est de 4.5 milliards d'années et qui se transmute en plomb 210 radioactif ayant une demi-vie de 22.3 ans. Ce plomb 210 va petit à petit se transformer en plomb 206 stable mais il faudra des dizaines d'années pour éliminer l'essentiel de la radioactivité. Que faire alors ? Est-ce à dire qu'il faut renoncer à utiliser du plomb pour blinder les détecteurs ? La réponse est bien sûr négative. L'astuce consistera pour les physiciens de l'expérience Edelweiss (Laboratoire Souterrain de Modane) à collaborer avec des collègues archéologues afin de se procurer du Plomb récupéré dans  une épave ayant coulé au IVème siècle après JC au large de Ploumanac'h (Côtes d'Armor). En effet, ayant été extrait il y a plusieurs siècles, l'isotope 210 du plomb a eu suffisamment de temps pour se désintégrer quasi totalement et le Plomb, dit "archéologique" est alors suffisamment inerte pour être utilisé comme blindage contre la radioactivité.

Un autre exemple a pour cadre l'expérience CMS installée sur l'accélérateur LHC du CERN. Celle-ci, pour la réalisation d'une partie de son calorimètre hadronique, avait besoin de plaque de laiton (alliage de cuivre et de zinc) ayant des caractéristiques de rigidité mécanique tout à fait particulières et incompatibles avec la production industrielle standard. Une production spéciale aurait certainement été possible mais aurait été d'un coût prohibitif. 
Source : http://cms.web.cern.ch/news/using-russian-navy-shells
L'un des collaborateurs russes eu alors l'idée de récupérer le laiton de douilles d'obus datant de la seconde guerre mondiale. Ces étuis avaient en effet des caractéristiques mécaniques particulières afin de supporter le stress inhérent à la propulsion de l'obus ainsi que le stockage prolongé dans un milieu marin. Plus d'un million d'obus furent inactivés puis fondus afin de récupérer le laiton, Du cuivre d'excellente qualité fut également fourni par les États-Unis pour compléter les matières premières nécessaires à la réalisation du détecteur.

Pour finir, je ne connais plus les caractéristiques exactes du détecteur, mais du voile de mariée fut utilisé dans la réalisation des cuves de scintillateur liquide du détecteur installé dans les années 80-90 sous la centrale nucléaire du Bugey afin de rechercher le phénomène d'oscillation des neutrinos. Le voile permettait d'améliorer considérablement les performances optiques de l'appareillage en évitant un contact direct entre une couche de matériau transparent et le Mylar aluminisé faisant office de réflecteur. Toute une étude fut donc entreprise afin de sélectionner la qualité idéale de voile de mariée !

mardi 26 février 2013

Higgs, nouvelle physique et stabilité du vide


Bien qu'attendue depuis longtemps, la découverte récente d'une nouvelle particule "compatible" avec le boson Higgs est une avancée majeure pour la physique des particules, qui apporte sont lot de réponses mais aussi d'interrogations sur la description théorique des phénomènes mis en jeu.

Les deux expériences ATLAS et CMS ont fait preuve de prudence en n'annonçant pas la découverte du boson du Higgs, mais d'une particule ayant une masse proche de 125 GeV et compatible avec un boson de Higgs. Chaque mot est ici pesé de façon à préserver toute la rigueur scientifique sans céder à la tentation d'aller trop vite dans l'interprétation des résultats.

Candidat Higgs se désintégrant en 4 électrons, enregistré par l'expérience ATLAS en 2012
Depuis la découverte annoncée à l'occasion de la conférence ICHEP 2012 à Melbourne, l'accélérateur LHC a parfaitement fonctionné et a permis aux expériences de presque tripler le nombre de collisions enregistrées. Cette augmentation de la statistique accumulée est  très importante afin de préciser les caractéristiques de la particule observée, donc de vérifier s'il s'agit bien d'un boson de Higgs et si oui, de préciser s'il est standard ou non. En effet, le mécanisme de Higgs est assez général, et des extensions  du modèle standard de la physique des particules prévoient l'existence d'autres bosons de Higgs. C'est le cas notamment des théories Super-Symétriques (connues aussi sous l'acronyme SUSY) qui prédisent l'existence de tout un ensemble de nouvelles particules, dont l'une d'entre-elles, massive,  stable et  n'interagissant quasiment pas avec la matière ordinaire, pourrait constituer la matière noire de l'univers.

La plus évidente des caractéristiques, puisque c'est celle qui permet de mettre en évidence son existence, est sa masse. Pour des raisons de cohérence du modèle théorique, la masse ne peut être ni trop petite, ni trop grande. La masse mesurée proche de 125 GeV est un peu faible et cela a des conséquences sur lesquelles je reviendrai dans la suite.

Une autre caractéristique essentielle du Higgs  standard est d'être un boson scalaire, ces deux termes font référence à des propriétés quantiques de la particule; le spin et de la parité. Le spin est une quantité physique (moment angulaire intrinsèque) qui n'a pas de contrepartie en physique classique, il a une valeur entière pour les particules dites bosons et demi-entière pour les fermions. Fermions et bosons ont des comportements physiques très différents, par exemple, les particules élémentaires constituant la  matière ordinaire sont des fermion de spin 1/2. Les particules médiatrices des forces fondamentales : électromagnétique (photon), faible (W et Z)  et forte (gluons), sont des bosons de spin 1. Le boson de Higgs doit donc avoir un spin entier (c'est un boson) et nul (il est scalaire).
Pour identifier le spin d'une particule, il faut observer ses différents modes de désintégrations et mener des analyses statistiques sur la topologie des interactions enregistrées (ce qui revient à mesurer certains angles dans des référentiels bien choisis). Le mode de désintégration de la nouvelle particule en deux photons a été clairement identifié, ceci montre qu'il s'agit bien d'un boson de spin 0 ou 2 (le spin 1 étant exclu en raison de l'absence de masse du photon). Les analyses angulaires menées par les deux expériences ATLAS et CMS excluent l'hypothèse "spin 2" avec un niveau de confiance de plus de 90%.

La parité est une opération de symétrie qui inverse les coordonnées spatiales  (symétrie miroir). Dans le cadre de la mécanique quantique, les particules élémentaires possèdent une parité intrinsèque qui peut être soit positive, soit négative. Le boson de Higgs standard est un scalaire, il doit donc avoir une parité positive  (une particule de spin 0 et de parité négative est qualifiée de pseudo-scalaire). Là encore, des mesures sur la topologie des interactions compatibles avec la présence de la nouvelle particule, montrent que la parité positive est favorisée par rapport à la parité négative.

Les mesures de spin et de parité montrées par ATLAS et CMS à l'occasion du conseil du CERN du 12 décembre 2012 ne permettent pas encore de trancher avec certitude, mais montrent tout de même de sérieuses indications en faveur d'un spin 0 et d'une parité positive). En résumé, aujourd'hui, avec la statistique analysée,  nous sommes en présence d'un nouveau boson scalaire de masse proche de 125 GeV et dont les modes de désintégrations correspondent à ceux d'un Higgs standard. Certaines petites déviations existent (on parle de "tensions" dans le jargon des physiciens des particules), mais ne sont pas significative sur le plan statistique. Il s'agit essentiellement de la masse du boson mesurée par ATLAS qui est différente dans le canal de désintégration en deux photons (126.6 GeV) par rapport au canal en 4 leptons (123.5 GeV) et du taux de désintégration du Higgs en deux photons qui est un peu élevé pour les deux expériences. Donc pour le moment la nouvelle particule découverte ressemble vraiment beaucoup à un Higgs parfaitement standard.

Bien qu'elle semble être une confirmation éclatante de la justesse des prédictions des  théoriciens qui ont postulé le mécanisme de Higgs, cette situation est  un peu surprenante et quelque peu frustrante. En effet, pour l'instant pas de signe de SuperSymétrie, pas de traces de nouvelle physique ; rien qui puisse orienter les théoriciens vers une extension du modèle standard de la physique des particules. Par ailleurs, les résultats récents del'expérience LHCb qui a mis en évidence pour la première fois la désintégration rare du Bs (particule formée d'un quark b et d'un quark s) en deux muons, portent aussi un coup aux espoirs de détecter quelque chose de nouveau. Ce mode de désintégration très rare (environ 3 désintégrations sur un milliard)  est sensible à des processus quantiques virtuels (c’est-à-dire des processus intermédiaires au cours desquels des particules lourdes peuvent se manifester pendant un temps extrêmement court et influer sur les taux de désintégration) pouvant mettre en jeu des particules exotiques comme des bosons de Higgs supplémentaires. Or, aux incertitudes de mesure près, le taux de désintégration mesuré est parfaitement compatible avec les prédictions théoriques standards.

Est-ce à dire que la messe est dite ? Que le modèle standard de la physique des particules est inébranlable ? … pas vraiment, car il faut encore raffiner les mesures, il est possible que la nouvelle physique se cache dans des détails encore imperceptibles actuellement et qui se révèleront lorsque beaucoup plus de collisions auront été enregistrées, ou lorsque le LHC fonctionnera à une énergie plus élevée (13 ou 14 TeV au lieu de 8 actuellement).

Un point reste très troublant ; en effet,  le Higgs possède la capacité de se coupler à lui-même (autocouplage), or la faible masse du Higgs (~125 GeV) comparée à la masse du quark top (~173.5 GeV) conduit à calculer un couplage du Higgs avec lui-même qui devient négatif à haute énergie, la conséquence de ceci est que le vide devient instable à partir d'unecertaine énergie ! Le fait que nous vivions dans un univers dans lequel le vide est visiblement stable, conduit à penser qu'il existe un mécanisme de compensation non encore mis en évidence. Dans l'hypothèse peu probable où ce mécanisme de compensation n'existerait pas, il serait possible que le vide soit actuellement dans un état métastable, un peu comme un récipient d'eau refroidi en dessous de zéro degrés Celsius tout en restant liquide. Comme dans le cas de l'eau qui glace instantanément à la moindre perturbation, on pourrait alors imaginer qu'un évènement fasse basculer le vide dans un état de plus grande stabilité. La perturbation se propagerait alors dans tout l'univers à la vitesse de la lumière, balayant tout sur son passage dans une gigantesque débauche d'énergie. Une fois redevenu stable, l'univers fonctionnerait alors avec des lois physiques différentes et sans doute assez peu compatibles avec la vie telle que nous la connaissons.
Figure montrant la zone très particulière dans laquelle se situe le boson
de Higgs si on suppose que la modèle standard de la physique des
particules est valide jusqu'à l'échelle de Planck 

En conclusion, si la particule observée est bien un Higgs standard, la valeur de sa masse est vraiment très particulière, tellement particulière que cela cache certainement un mécanisme subtil non encore compris.

De nouveaux résultats sur le Higgs seront présentés le 6 mars prochain lors de la conférence de Moriond, ceux-ci seront diffusées en direct sur le Web à cette adresse

dimanche 28 octobre 2012

Quand la gravitation nous fait voir double

Prédit dès 1937 par Fritz Zwicky comme une conséquence de la théorie de la relativité générale, le phénomène de lentille ou de mirage gravitationnel a été effectivement observé pour la première fois en 1979 par les astronomes Dennis Walsh, Bob Carswell, and Ray Weyman sur des images obtenues  sur un télescope de 2.1 m de l'observatoire Kitt Peak. Il s'agissait de l'image d'un quasar nommé SBS 0957+561 dédoublée par l'effet gravitationnel d'une galaxie située en avant plan.

L'explication du phénomène fait intervenir la relativité générale, mais peut-être illustrée de manière simple ; 
Illustration du phénomène de lentille gravitationnelle - Source NASA
un objet très massif telle qu'une galaxie, courbe l'espace-temps. Les rayons lumineux provenant d'un objet situé en arrière-plan suivent cette courbure de telle façon qu'un observateur situé sur la ligne de visé verra une ou plusieurs images déformées et amplifiées de l'objet en question. La galaxie se comporte alors comme le ferait une lentille située sur le trajet des rayons lumineux.

Au-delà de l'aspect spectaculaire de cet effet qui illustre de façon flagrante et non ambiguë une conséquence de la relativité générale, il est possible de tirer profit des lentilles gravitationnelles pour étudier des objets invisibles autrement ou pour mesurer des paramètres cosmologiques.

Mirages gravitationnels observés par Hubble

Si on observe l'univers de manière suffisamment profonde, on se rend compte que les distorsions gravitationnelles sont omniprésentes, bien que parfois très peu marquées. Les images des galaxies lointaines sont distordues par de multiples déformations de l'espace-temps associées à la matière située en avant-plan. L'effet gravitationnel est qualifié de "faible", on parle alors de "weak lensing" ou de cisaillement gravitationnel. Une analyse statistique des déformations permet par exemple de dresser des cartes de la distribution de matière visible et invisible  dans les régions du ciel observées. Il s'agit d'un outil très puissant puisqu'il permet de cartographier la matière sombre sans la voir (évidemment !) et  sans avoir à faire d'hypothèse s sur sa nature.

L'effet de lentille gravitationnelle peut également être "fort", dans ce cas on observera un objet particulier (galaxie, quasar, etc…) amplifié, déformé et dédoublé. Ce type de phénomène est rare car il requière que l'observateur, la masse "défléchissante" et l'astre observé soit pratiquement alignés., de plus il se manifeste surtout pour des astres peu lumineux car très éloignés car cela maximise les chances qu'un objet massif se trouve au bon endroit.

Avec les grands relevés astronomiques et notamment avec le Large Synoptic Survey Telescope(LSST) qui imagera de nombreuse fois chaque région du ciel au cours de ses dix ans de service il deviendra possible d'observer des effets de lentilles gravitationnelles forts sur des astres dont la luminosité varie rapidement avec le temps, par exemples des quasars ou des supernovæ. Dans le cas des supernovæ, on pourra alors observer l'apparition des images multiples décalées dans le temps. En effet, les chemins optiques correspondants aux multiples images (mirages) sont différents et il peut s'écouler quelques mois, voire quelques années entre l'apparition de deux images successives. Comme illustré ci-dessous, on pourra alors disposer d'une sorte de film montrant les apparitions et les disparations des différentes images de la supernovæ. 
"Film" de l'apparition des images successives d'une supernovæ par effet de lentille gravitationnel fort - Simulation réalisée dans le cadre du projet LSST - Source : http://www.lsst.org/files/docs/aas/2006/Kirkby.pdf 
Pour des supernovæ de type 1A dont la courbe de luminosité et le spectre sont bien connus, il sera possible de déterminer très précisément le décalage temporel entre les différentes images qui est lié à la "constante" de Hubble. Inversement, si la constante de Hubble est connue via d'autres méthodes, l'effet de lentille gravitationnelle fort donne des indications précises sur la distribution de la matière (normale et noire) constituant l'objet déflecteur. En 10 ans d'opération on estime que LSST devrait observer une grosse centaine de ces mirages gravitationnels de supernovæ  de type 1A.

vendredi 19 octobre 2012

Le Large Synoptic Survey Telescope (LSST)


Une, deux, trois, quatre… cinquante-six, cinquante-sept … quatre-vingt-dix-neuf, CENT... s'exclame l'enfant qui pointe les étoiles avec son doigt et tente de les compter … toutes ! De tout temps, les Hommes ont ressenti le besoin de compter les astres, de les répertorier, de les classer… le simple fait de les rassembler dans des constellations était déjà une manière de créer un catalogue.  Au fil du temps et avec l'aide de l'évolution technologique les catalogues ont pris de l'ampleur ; étoiles, astéroïdes, comètes, galaxies, quasars, supernovæ… les répertoires contiennent au minimum les coordonnées astronomiques des astres, mais peuvent aussi être enrichis d'autres informations telles que la couleur, le spectre, le décalage vers le rouge, la dimension angulaire où autres paramètres caractérisant la forme des galaxies, etc.

La plupart des grands télescopes sont des instruments mis à la disposition de la communauté des astronomes qui proposent des projets d'observation dans un but scientifique donné et qui obtiennent pour cela, plus ou moins de temps d'instrument. Les observations ne se font évidemment pas l'œil rivé à l'oculaire, mais avec des caméras CDD, des spectrographes, ou autres instruments qui délivrent des données qu'ils convient de traiter afin de pouvoir en extraire des informations pertinentes.

D'autres télescopes fonctionnent d'une manière différente, ils  exécutent des relevés systématiques (surveys en anglais) d'une portion ou de la totalité du ciel visible depuis l'endroit où ils se trouvent. En jouant sur le temps de pose, ils peuvent également faire des relevés en profondeurs (deep sky surveys) en augmentant les temps de pose afin d'observer les galaxies les plus ténues dans un champ donné. Afin d'être efficace dans ces relevés, il convient d'utiliser des instruments offrant un très grand champ, c’est-à-dire capable de photographier la plus grande fraction du ciel possible à chaque pose.

Dès 1949, le télescope Samuel Oschin au Mont Palomar entamait le premier grand relevé, nommé  "National Geographic Society- Palomar Observatory Sky Survey " ou NGS-POSS. Terminé en 1958, il servit, au moins partiellement à la constitution de nombreux catalogues. Le télescope Samuel Oschin était conçu avec une formule optique dite de Schmidt offrant un très large champ.

Par la suite plusieurs grand relevé eurent lieu, comme par exemple le Digitized Sky Survey (DSS) achevé en 1994 ou encore le Sloan Digital Sky Survey (SDSS) commencé en 2000 et dont la troisième passe s'achèvera en 2014. L'instrument BOSS (Baryonic Oscillation Spectroscopic Survey) complète les informations enregistrées par SDSS avec des relevés spectroscopiques qui ont notamment servis à la mise en évidence des Oscillations Acoustiques Baryoniques (BAO), phénomène fournissant un étalon standard de longueur à l'échelle cosmique, très pratique pour étudier l'évolution du taux d'expansion de l'univers en fonction de son âge.

L'idéal pour les astrophysiciens est de disposer d'un instrument capable de photographier la plus grande fraction possible du ciel pour être exhaustif, le plus rapidement possible afin de détecter et de suivre les phénomènes transitoire et le plus profondément possible afin d'observer les galaxies les plus lointaines, donc les plus âgées. Le projet LSST (Large Synoptic Survey Telescope) est conçu pour satisfaire au mieux tout ces critères.
Le télescope LSST tel qu'il sera installé sur le Cerro Pachòn. La forme du bâtiment a été optimisé pour limiter les turbulences
Le télescope LSST, sera  installé sur le Cerro Pachón au nord du Chili, site disposant de conditions atmosphériques exceptionnelles avec un seeing moyen de 0.67 secondes d'arc et 80% des nuits propices à l'observation. Le télescope de 8.4 mètres de diamètre est conçu autour d'une formule optique à trois miroirs, dite "Paul Baker" de rapport f/d (distance focale divisée par le diamètre du miroir) égal à 1.23 qui procure une luminosité exceptionnelle à l'instrument.

Le télescope LSST
Le plan focal du télescope sera instrumentée à l'aide d'une caméra pesant la bagatelle de 2.8 tonnes et composée de 189  plaques de capteurs CCD représentant un total de 3.2 milliards de pixels. Elle permettra de couvrir un champ de 9.62 deg2 lors de chaque prise de vue. Elle sera couplée à un système capable de positionner six filtres permettant de sélectionner des bandes de longueurs d'onde situées dans  la gamme comprise entre 320 nm (ultraviolet) et 1080 nm (infrarouge). Chaque filtre présente un diamètre de 76 cm et pèse entre 30 et 44 kg ! Outre les 189 CCD principaux, la caméra est dotée de quatre séries de CCD disposés sur la  périphérie du plan focal et destinés à l'alignement et au contrôle du front d'onde.  L'ensemble caméra + filtres + électronique de lecture est un objet extrêmement pointu du point de vue technologique et représente un véritable défi de conception et de réalisation.
La caméra du projet LSST

  • La séquence de fonctionnement du télescope sera la suivante :
  • Pose de 15 s
  • Positionnement de l'obturateur durant 1 s
  • Lecture des CCD durant 2 s
  • Nouvelle pose de 15 s
  • Positionnement de l'obturateur durant 1 s
  • Lecture des CCD durant 2 s
  • Positionnement du télescope sur une nouvelle zone (proche) durant 5 s

Cette séquence de fonctionnement est répétée à longueur de nuits, éventuellement interrompue par un changement de filtre qui dure environ 2 minutes. Avec une telle cadence et un tel champ, il n'était pas envisageable de faire de la spectroscopie, les six filtres fournissent toutefois suffisamment d'informations pour caractériser les objets observés par photométrie, c’est-à-dire en exploitant l'intensité lumineuse enregistrée par les CCD au travers de chaque filtre.

Les  capteurs CCD délivrent un signal codé sur 16 bits ce qui engendre un flux de données d'environ 15 To par nuit d'observation. Le système de traitement "en ligne " des données permettra de délivrer des alertes sur des phénomènes intéressants avec un délai de seulement 60 secondes. Le traitement "en profondeur" des données CCD sera effectué par deux grand centre de traitement de données ; le National Center for Supercomputing Application (NCSA) à Urbana-Champaign dans l'Illinois et le Centre de Calcul de l'Institut National de Physique Nucléaire et de Physiquedes Particules (CNRS / CC-IN2P3) en France à Villeurbanne.

Chaque portion du ciel sera observée un millier de fois durant les 10 ans de fonctionnement du projet, ceci permettra d'additionner les poses correspondantes et d'augmenter considérablement la profondeur des champs sondés. On passe ainsi d'une magnitude limite de 24.5 pour une pose unique (en fait deux poses de 15 secondes)  à une magnitude de 27.5 pour l'intégralité des champs observés au bout de dix ans.  Le résultat du traitement des images sera stocké dans un ensemble d'immenses bases de données occupant 30 Pétaoctets (30 milliards de Go) d'espace de stockage informatique.

Autant les alertes délivrées par le traitement "en ligne" que les catalogues des objets reconstruits seront mis à la disposition de la communauté scientifique ainsi que du grand public. Tout un programme de diffusion de la connaissance vers le grand public fait partie intégrante du projet LSST.

LSST entamera une phase de validation de deux ans à partir de 2018 et rentrera en pleine production dès 2020 pour un fonctionnement quasiment continu pendant 10 ans. Le champ scientifique délivré par LSST est extrêmement vaste, il s'étend depuis la recherche d'astéroïdes géo-croiseurs jusqu'à l'étude des grandes structures de l'univers et de l'énergie noire en passant par les  détections et les mesures de supernovæ.

Liens :
Le site du projet LSST (en anglais) : http://www.lsst.org/lsst/ voir notamment la galerie photo