samedi 17 décembre 2011

Crouching physicists, hidden Higgs !


Oui le Higgs se cache, il se cache même bien le bougre ! Après deux ans de traque avec les expériences installées sur le collisionneur LHC au CERN, il n'y a toujours pas aujourd'hui de certitude quand à son existence.

Le 13 décembre avait lieu au CERN un séminaire spécial pour faire le point sur l'état d'avancement de la recherche du Higgs par les collaborations ATLAS et CMS. Inutile de dire que l'attente était grande. L'amphi du CERN était comble et le séminaire diffusée mondialement sur Internet a sans doute été suivi par des milliers de personnes malgré son caractère très technique.

Fabiola Gianotti, la porte parole de la collaboration ATLAS a commencé par saluer la superbe performance de l'équipe en charge du fonctionnement de l'accélérateur, et en effet, les prédictions les plus optimistes ont été dépassées puisque 5.25 inverse femtobarn ont été collectés par le détecteur ATLAS. L'unité est inhabituelle pour des non physiciens, cela représente des milliards d'interactions. Au-delà de chiffres énormes, on comprendra la performance du LHC en sachant que le nombre de collisions enregistrées en deux ans dans lesquelles une paire de quarks top est produite, représente déjà 10 fois la statistique accumulée durant 17 ans par le Tevatron, l'accélérateur le plus puissant au monde avant la mise en service du LHC et qui avait découvert le quark top en 1994.

Ensuite Fabiola Gianotti a montré l'accord quasi parfait entre les nombreuses mesures réalisées par ATLAS et les prédictions du modèle standard de la physique des particules. En effet, dès leur mise en service les expériences sur le LHC se sont attachées à remesurer les paramètres du modèle standard afin de vérifier que détecteurs et procédures d'analyse étaient bien compris. Certaines mesures sont déjà tellement précises que les physiciens théoriciens doivent reprendre leur copie afin d'affiner les prédictions et ainsi de traquer la moindre déviation expérimentale qui pourrait révéler l'existence d'une nouvelle physique.

Bien qu'encore hypothétique, le Higgs dit standard, a des propriétés bien connues, seule sa masse ne peut être prédite par la théorie. On connait notamment ses modes de désintégration et son taux de production dans les collisions proton - proton du LHC. En fonction de sa masse certains modes de désintégrations sont privilégiés. Par exemple à basse masse - en dessous de 130 GeV - le canal privilégié est le Higgs se désintégrant en deux photons. Un peu plus massif, et il faudra  se tourner vers des modes produisant des leptons (électrons, ou muons) accompagnés ou non de neutrinos, ou encore des modes avec des quarks se matérialisant sous la forme de "jets" de particules. Tout ces modes de désintégration coexistent dans des proportions diverses et sont dilués dans un bruit de fond que le physicien analyste s'attache à réduire au minimum.

En fonction du nombre de collisions enregistrées et de la masse du Higgs on peut calculer la sensibilité des expériences à la présence d'un Higgs. Les physiciens cherchent donc à mettre en évidence des déviations par rapport à une hypothèse sans Higgs dans les zones de sensibilité maximale. On peut ainsi exclure des domaines de masse avec un certain niveau de confiance quantifiable, ou bien au contraire observer des déviations plus ou moins significatives.

En novembre 2011, l'analyse combinée des données des expériences ATLAS et CMS était résumée sur la figure suivante :
Extrait de la présentation de Fabiola Gianotti au CERN le 13/12/2011

 La zone de sensibilité se trouve en dessous de la ligne rouge. La ligne pointillée correspond à la prédiction du modèle standard en l'absence de Higgs. Les bandes verte et jaune indiquent de combien une mesure peut statistiquement s'écarter de la prédiction, tout en restant compatible avec l'hypothèse de l'absence de Higgs. Cet écart se mesure en nombre de "sigma", une déviation d'un sigma étant non significative (bande verte), 2 sigma (bande jaune) correspond à une probabilité de 4.6% d'être conforme à l'hypothèse, 3 sigma à 0.27%, et ainsi de suite… pour prétendre à une découverte, on admet qu'il faut que la mesure diffère de la prédiction de plus de 5 sigma, la probabilité que l'effet observé soit dû à une fluctuation statistique est alors de l'ordre de 6 chances pour 10 millions. Les points reliés par la ligne continue noire correspondent aux mesures ; on constate que dans le domaine de sensibilité, les mesures ne s'écartent pas significativement de l'hypothèse sans Higgs, on peut donc exclure tout le domaine de masse entre 141 et 476 GeV à plus de 95% de niveau de confiance.

Avec l'ensemble des collisions enregistrées en 2010 et 2011, ATLAS obtient le résultat suivant qui a été présenté pour la première fois le 13 décembre :
Extrait de la présentation de Fabiola Gianotti au CERN le 13/12/2011


En grossissant la partie à basse masse on observe dans la zone de sensibilité  une déviation de 3.6 sigmas par rapport à l'hypothèse sans Higgs pour une masse voisine de 126 GeV.
Extrait de la présentation de Fabiola Gianotti au CERN le 13/12/2011

Cette déviation est visible dans 3 canaux de désintégration différents (gamma gamma, 4 leptons et 2 leptons / 2 neutrinos). Il faut moduler la portée de ce résultat par le fait que l'excès est vu en scrutant un large domaine de masse, or plus on fait de mesures, plus on a de chance d'observer une fluctuation statistique importante (quand beaucoup de gens jouent au loto, il y a presque toujours un gagnant !) Cet effet est dénommé "look elsewhere effect" ("regarder ailleurs" en français) et peut-être quantifié. Quand il est pris en compte, la signification statistique de la déviation tombe à 2.3 sigma. Parmi les canaux étudiés le Higgs --> gamma gamma est celui dans lequel la déviation est la plus grande (2.8 sigma).

L'expérience CMS a fait la même étude et observe une légère déviation par rapport à l'hypothèse sans Higgs pour des masses inférieures à 127 GeV mais la signification statistique n'est que de 2.6 sigma et tombe à 1.9 sigma en incluant le "look elsewhere effect". CMS n'exclue donc pas un Higgs de basse masse mais son observation est également parfaitement compatible avec une fluctuation statistique.

Le résultat de tout ce travail est donc une indication pour une possibilité d'existence d'un Higgs ayant une masse proche de 126 GeV mais il convient de rester très prudent et d'attendre les résultats de la prise de données de  2012 avec une statistique multipliée par au moins 4 qui devrait être suffisante pour découvrir le Higgs ou l'exclure définitivement. On y verra alors plus clair pour continuer d'explorer la physique du LHC. En tout cas, pour paraphraser Fabiola Gianotti, si le Higgs est vraiment dans cette zone de masse, il sera passionnant à étudier avec plusieurs canaux de désintégration accessibles aux détecteurs. De plus, si sa masse est faible, il est probable qu'un seul Higgs standard ne soit pas suffisant pour assurer la cohérence du modèle standard et cela serait une indication de l'existence d'autres phénomènes intéressants accessibles au LHC, tels que la supersymétrie.

samedi 19 novembre 2011

Neutrinos véloces - suite


Il y a un peu moins de deux mois, la collaboration OPERA soumettait à la critique de la communauté de physique une mesure du temps de propagation des neutrinos entre le CERN et le laboratoire souterrain du Gran Sasso dans les Abruzzes en Italie, soit une distance d'environ 730 km. Le résultat annoncé est très surprenant puisqu'il indique que les neutrinos arrivent environ 60 nanosecondes (ns) plus tôt que s'ils voyageaient à la vitesse de la lumière dans le vide. Depuis, de nombreuses contributions ont été apportées par les physiciens pour tenter d'expliquer le résultat ou bien pour pointer une possible source d'erreur. Pour l'instant aucune faille dans la procédure de mesure n'a pu être mise en évidence.

L'un des points délicats de la mesure concerne la structure temporelle du faisceau de neutrinos. En effet, les neutrinos sont produits lors de la désintégration de pions ou de kaons, eux même issus de l'interaction d'un faisceau de proton sur une cible. Le faisceau de protons initial est pulsé, chaque bouffée de protons s'étalant sur un intervalle de 10.5 microsecondes. A l'intérieur de cet intervalle, la densité de proton n'est pas uniforme et possède une structure formant cinq pics.

Lorsqu'un neutrinos est détecté dans OPERA, il est facile d'identifier à quel pulse de proton il appartient mais il est impossible de savoir à quel moment du pulse de 10.5 microsecondes il a été engendré. On comprend donc la difficulté de la mesure puisqu'il faut mesurer le temps de propagation des neutrinos avec une précisions de quelques nanosecondes alors que l'instant d'émission du neutrino peut se trouver n'importe où dans une fenêtre de 10.5 microsecondes. La collaboration OPERA s'en sort grâce à la statistique ; en effet, si l'on observe un grand nombre de neutrinos dans le détecteur OPERA on doit retrouver la structure en temps du faisceau de proton, c’est-à-dire la forme du pulse de 10,5 microsecondes. Les physiciens mesure donc  le temps d'arrivé des neutrinos, par rapport à un signal temporel parfaitement calé sur le début du pulse de protons. La distribution en temps des neutrinos enregistrée sur une longue période est ensuite ajustée par rapport à la forme des pulses de protons.

On comprend aisément que cette procédure complexe ait été pointée comme une possible source d'erreurs. On peut en effet imaginer des effets subtils qui modifient la forme effective des bouffées de neutrinos, comme par exemple un échauffement de la cible qui modifie la géométrie de celle-ci au cours des 10.5 microsecondes d'exposition au faisceau de protons.

Structure temporelle du faisceau de protons utilisé
pour refaire la mesure du temps de propagation des

neutrinos (source : http://tinyurl.com/c7af9oj )
Afin d'éclaircir ce point, le CERN a mis au point un faisceau de neutrinos avec une structure temporelle totalement différente. Dans celle-ci les protons forment des pulses de 3 nanosecondes de large et espacés de 524 nanosecondes. Il est alors possible de mesurer précisément le temps de propagation de chaque neutrino détecté au Gran Sasso puisque l'incertitude sur son temps d'émission n'est que de quelques nanosecondes. Pour des raisons techniques, un tel faisceau est environ 60 fois moins intense que le faisceau initial possédant une structure en pulse de 10.5 microsecondes, mais le fait que le temps de propagation de chaque neutrino puisse être mesuré permet de se satisfaire d'une statistique bien plus faible que lors de la première mesure.

En deux semaines de prise de données, OPERA a pu identifier et mesurer 20 interactions de neutrinos qui confirment parfaitement le premier résultat. La mesure obtenue correspond à une avance des neutrinos par rapport au temps prédit pour une propagation à la vitesse de la lumière dans le vide de 62.1 nanosecondes avec une incertitude de 3.7 nanosecondes.

Le mystère reste donc entier et à ce jour il n'y a aucune explication à ce phénomène. L'annonce d'une découverte aussi fondamentale nécessitera une confirmation de la part d'une expérience indépendante. La collaboration MINOS aux États-Unis est parait-il en train de préparer une mesure, mais il faudra être patient car une telle étude nécessite une compréhension totale des conditions expérimentales.

mardi 8 novembre 2011

Les coulisses des grandes expériences de physique des particules (1)


La physique des particules ou physique des hautes énergies met en œuvre des appareillages géants, probablement les plus complexes et les plus sophistiqués qui puissent être conçus. Cette complexité vaut à la physique des particules d'être classée sous l'appellation un peu réductrice de "big science" et d'être parfois dénigrée par certains chercheurs qui considèrent que le gigantisme expérimental tue le sens physique. Bien que ce jugement de valeur n'ait à mon avis pas beaucoup de sens et traduise une méconnaissance de la réalité, il faut reconnaitre que cette "big science" s'accompagne d'une méthodologie et d'une sociologie bien particulière. Il faut en effet mettre en place une organisation sans faille pour mener à bien de tels projets, impliquant de très nombreuses personnes d'origines diverses et des budgets conséquents. 

Cette note et la (ou les) suivante(s) présenteront quelques aspects de ces grandes expériences.

Comme mis en avant par le laboratoire Fermi aux États-Unis, les expériences sur les accélérateurs de particules visent en principe à repousser deux types de frontières :
  • La frontière de l'énergie, où il s'agit de pousser l'énergie de collision au maximum afin d'explorer des domaines d'énergies correspondant à des phénomènes ayant eu lieu dans l'Univers à des périodes proches du Big-Bang.
  • La frontière de l'intensité, où il s'agit pour un domaine d'énergie donnée - situé en deçà de la frontière en énergie - pousser l'intensité des faisceaux au maximum de manière à obtenir le plus grand nombre possibles de collisions et ainsi de mettre en évidence des phénomènes très rares.
L'histoire de la physique des particules et de ses découvertes est une succession d'avancées au niveau de ces deux frontières.

Lorsque l'on veut construire un accélérateur, se pose la question du choix de la particule à accélérer. On ne dispose actuellement que de deux choix pratiques : le proton et l'électron, chacun associé à leur antiparticule. Dans les accélérateurs circulaires, les particules perdent une partie de leur énergie par rayonnement synchrotron proportionnellement à leur énergie et à l'inverse de la puissance quatrième de leur masse. L'électron étant environ 2000 fois moins massif que le proton, à énergie égale, celui-ci va rayonner 16 000 milliards de fois plus ! A chaque tour d'accélérateur, il faudra donc compenser cette perte en communiquant une énergie encore plus grande. On comprend donc qu'il est plus intéressant d'accélérer des protons lorsqu'on veut repousser la frontière de l'énergie.

Malheureusement les protons ont le gros désavantage de ne pas être élémentaires. Les protons sont des objets complexes constitués de quarks et de gluons qui possèdent leur dynamique propre à l'intérieur du proton. À grande énergie, une collision proton-proton ou proton-antiproton est en fait une interaction entre les quarks et/ou les gluons. L'énergie totale disponible se distribue entre les constituants du proton et l'énergie utile lors de la collision est divisée par environ 6 (le nombre de quarks constituant les deux protons). D'autre part, le produit de la collision est complexe et les effets intéressants du point de vue de la physique sont dilués dans "soupe" de particules de basse énergie qui brouillent le résultat. Cette "soupe" provient des interactions "molles" des autres constituants élémentaires des protons.

Les machines à protons comme le Tevatron aux États-Unis ou le LHC au CERN sont typiquement des machines de découvertes. En poussant l'énergie des collisions, les physiciens explorent des territoires inconnus. C'est avec ce type de machine que la chasse au boson de Higgs ou aux particules supersymétriques s'effectue.

À l'inverse, les électrons sont des particules élémentaires, l'état initial lors de la collision est parfaitement connu, de même que l'énergie disponible. Cette énergie est d'ailleurs ajustable très finement ce qui permet d'explorer un domaine d'énergie spécifique. Les machines à électrons sont typiquement des outils pour l'étude de précise de certains phénomènes.  Le LEP a ainsi été qualifié de machine de métrologie pour les particules Z et W.

Bien souvent la découverte d'un nouveau mécanisme a lieu sur un collisionneur de proton et son étude est faite sur une machine à électrons. Ainsi, la découverte des bosons W et Z, médiateurs de la force électrofaible, a eu lieu en 1983 sur le SppS (Super proton antiproton Synchrotron) au CERN. Ces deux particules ont ensuite été étudiées en détails sur le LEP (Large Electron Positron collider). Il en sera sans doute de même pour le Higgs, qui s'il est découvert avec le LHC, sera produit abondamment et mesuré avec le futur collisionneur linéaire d'électrons.

La luminosité est une grandeur caractéristique des collisionneurs qui mesure leur capacité à produire des collisions exploitables pour la physique. Lorsque l'on pousse la luminosité à des valeurs extrêmes, les collisionneurs deviennent de véritables "usines" à particules et on les désigne de la sorte. Les machines PEPII au SLAC en Californie et KEKB au Japon ont ainsi été des usines produisant des mésons B (particule constituée d'un quark b et d'un autre quark léger) qui ont permis d'étudier en détail les asymétries entre matière et antimatière (violation de la symétrie CP). Les usines permettent également d'accumuler des statistiques considérables et ainsi de mettre en évidence des phénomènes très rares pouvant révéler l'existence d'une nouvelle physique.

La mise en œuvre d'un nouveau programme de recherche en physique des particules commence donc la plupart du temps par la conception d'une machine adaptée (ou la réutilisation d'une machine existante, si les caractéristiques de celle-ci le permettent).  

À suivre...

dimanche 2 octobre 2011

Des photons battus sur la ligne par une poignée de neutrinos !


La nouvelle a fait grand bruit ; l'expérience OPERA a mesuré le temps de propagation de neutrinos sur la distance séparant le CERN à Genève du laboratoire souterrain du GranSasso dans les Abruzzes en Italie, soit environ 730 km et a constaté que les neutrinos arrivent 60 ns (soit 60 milliardième de seconde) plus tôt que s'ils se propageaient à la vitesse de la lumière dans le vide !

OPERA est un détecteur conçu au départ pour détecter l'apparition de neutrinos de type tau dans un faisceau de neutrinos de type mu (voir cette note) afin de caractériser le phénomène dit d'oscillation des neutrinos. Pour ce faire, un faisceau de neutrinos de type mu est fabriqué au CERN et est envoyé à travers la croute terrestre vers le détecteur situé dans le laboratoire du Gran Sasso. Les neutrinos n'interagissant quasiment pas avec la matière, ils traversent les 730 km de roche se trouvant sur leur trajectoire, quasiment sans perturbation. Le détecteur, très massif (1250 tonnes) doit être exposé au faisceau pendant de très longues périodes pour observer quelques interactions de neutrinos. La mesure du temps de parcours des neutrinos n'est donc pas le but principal de l'expérience, mais un à côté intéressant. Une mesure similaire publiée en 2007 par la collaboration MINOS aux États-Unis indiquait une déviation par rapport à la vitesse de la lumière non significative au niveau statistique.

Pour réaliser cette mesure, il convient de parfaitement mesurer la distance entre la source des neutrinos et l'endroit où ils sont détectés. Ceci a été fait grâce à des balises GPS parfaitement étalonnées, positionnées au CERN et au Gran Sasso  et complété par des mesures géodésiques classiques afin déterminer les distances entre les balises et respectivement la source et le détecteur de neutrinos. La précision obtenue est de 20 cm sur les 730.534 km de distance !

Le deuxième élément de la mesure est la détermination du temps de propagation des neutrinos entre le CERN et le détecteur.  Il faut pour cela disposer d'une même référence de temps entre les deux sites. Le système GPS est là encore utilisé, mais fournit à lui seul une précision insuffisante de 100 ns.  Le GPS est donc complété par deux horloges atomiques, l'une au CERN et l'autre au Gran Sasso qui permettent de ramener la précision sur la référence commune de temps à 1 ns.  L'appareillage et son bon fonctionnement ont été validés par deux instituts indépendants, spécialistes de ce type de mesure.

La difficulté est ensuite que bien que l'on connaisse précisément le temps auquel un neutrino est détecté dans OPERA, on ne connait pas le temps exact d'émission de ce même neutrino au CERN. En effet, le faisceau de neutrinos est produit à partir de la désintégration de pions et de kaons, eux même produits par un faisceau de protons envoyé sur une cible. La seule référence temporelle est le pulse des protons initiaux que l'on peut associer au neutrino détecté, mais ce pulse dure 10.5 microsecondes, contient une multitude de protons  et il est impossible d'identifier quel proton individuel est associé au neutrino détecté. Par contre la structure temporelle des pulses est connue et stable dans le temps, on doit donc retrouver cette même structure au niveau du timing de l'ensemble des neutrinos détectés. Il s'agit là d'une analyse statistique classique dans laquelle le temps de propagation des neutrinos est une variable que l'on ajuste.

L'étude rapportée dans la publication de la collaboration OPERA porte sur 17000 interactions de neutrinos accumulées entre 2009 et 2011. Il faut souligner le fait que l'analyse a été menée en aveugle, c'est-à-dire que toute la procédure est mise au point sans regarder le résultat qui n'est dévoilé aux analystes qu'au tout dernier moment. Cela évite les biais subjectifs qui pourraient conduire les physiciens à modifier inconsciemment la méthode afin de trouver un résultat auquel ils s'attendent.

Le résultat est donc là ; les neutrinos arrivent 60.7 ns plus tôt  que s'ils se propageaient à la vitesse de la lumière dans le vide. L'incertitude sur cette mesure est de 6.9 ns due à la statistique (nombre limité de neutrinos) et de 7.4 ns due aux effets systématiques  expérimentaux (précision sur le temps, la distance, ...). La signification statistique du résultat est donc excellente puisque la valeur moyenne s'écarte de zéro par plus de 6 écarts standards (6 fois l'incertitude totale).

Devant ce résultat, qui s'il se confirme, aura des conséquences profondes sur notre connaissance de la physique ; l'ensemble de la collaboration OPERA (près de 200 physicien(ne)s)  s'est bien entendu creusée la tête pour essayer de trouver une erreur ou un biais dans l'analyse. N'ayant pu trouver de problème, le résultat a été publié  brut sans aucune tentative d'interprétation et présenté devant la communauté mondiale afin d'être évalué et critiqué. Une présentation publique a eu lieu le 23 septembre au CERN devant un amphi comble. Après 10 jours de réflexion la communauté internationale de la physique n'a pas été en mesure de trouver de faille dans la mesure et la majeure partie de cette communauté salue le sérieux du travail effectué ainsi que la démarche de la collaboration OPERA.

Il est bien entendu possible qu'un effet n'ait pas été pris en compte, si c'est le cas, c'est certainement quelque chose de très subtil et inattendu. Rappelons-nous que les spécialistes du LEP (Large Electron Positron collider) dans les années 90 étaient très surpris de constater une variation périodique et inexpliquée de l'énergie des faisceaux, jusqu'à ce que quelqu'un réalise qu'il s'agissait de l'effet de marée qui changeait très légèrement la géométrie de l'accélérateur.

La communauté est en attente d'une nouvelle mesure indépendante de la collaboration MINOS aux États-Unis qui utilise un faisceau de neutrinos passant à travers la croute terrestre, tout comme OPERA.

jeudi 25 août 2011

IC7023 - La nébuleuse de l'Iris

La nébuleuse de l'Iris est située à 1300 années lumière dans la constellation de Céphée, elle a été découverte en 1794 par le compositeur et astronome William Hershel. Contrairement à la plupart des nébuleuses présentées dans ce blog, qui sont dites "en émission" et qui rayonnent principalement à la longueur d'onde de 656.3 nm dans la raie Halpha de l'hydrogène ; celle-ci est une nébuleuse par réflexion. Il s'agit de nuages de poussières constitués de grains dont la taille varie du centième de micron à quelques microns et qui réfléchissent la lumière des étoiles environnantes. Elles présentent généralement une dominante de couleur bleue, cette longueur d'onde étant plus facilement diffusée que le rouge par exemple.

Les caméras astronomiques CCD sont monochromes, elles ne restituent donc pas directement la couleur. Afin de faire des photographies astronomiques en couleur, il faut combiner des images prises au travers de différents filtres. Généralement on utilise 4 filtres : un filtre clair qui permet de capter les variations de luminosité, toutes couleurs confondues et 3 filtres, rouge, vert et bleu qui permettront de reconstituer toutes les couleurs du spectre visible. C'est une procédure assez longue car il faut enregistrer suffisamment de signal avec chacun des filtres.

L'image ci dessous a nécessité 4 x 1 heure de pose, elle montre les 4 vues individuelles prises au travers des filtres. 




























Ces 4 images étant réalisées, on les combine et on les équilibre à l'aide d'un logiciel afin de reconstituer la couleur. Voici le résultat :





























On distingue des zones sombres (nébuleuses obscures) constituées de poussières qui elles, ne réfléchissent pas la lumière des étoiles voisines.

L'amas bien connu des Pléiades est un autre exemple de nébuleuse par réflexion. 

lundi 22 août 2011

IC5070 - Le Pélican cosmique

La nébuleuse IC5070 ou 5067 surnommée le Pélican en raison de sa forme, se trouve dans la constellation du Cygne, pas très loin de Deneb.

L'image ci dessous résulte de la superposition de 21 poses de 6 minutes chacune soit un peu plus de deux heures d'exposition. 

Comme pour les autres images postées récemment sur ce blog, il s'agit d'une zone de formation d'étoiles qui émet fortement dans le rouge caractéristique de la raie Halpha de l'hydrogène. Le Pélican est tout proche d'une autre très grande nébuleuse, NGC 7000, surnommée "l'Amérique du nord" en raison de sa forme, qui rappelle celle de la portion de continent du même nom.

L'image ci-dessous montre l'équipement qui a été utilisé pour réaliser cette image :

La photo elle-même est prise avec la petite lunette rouge bordeaux qui ne paye pas de mine mais qui, avec sa petite focale de 400 mm, offre plus de champ que le gros télescope. Ce dernier sert pour le guidage de la monture qui doit être le plus parfait possible afin de permettre la réalisation de poses de 6 minutes sans bougé. En effet, la monture motorisée, bien que de bonne qualité, ne permet pas de compenser le mouvement de rotation de la Terre avec suffisamment de précision. Il faut donc viser une étoile guide et asservir la monture de manière à ce que l'étoile ne se déplace absolument pas dans le champ.

La monture elle-même doit être aussi parfaitement que possible, alignée avec l'axe de rotation de la Terre. Ceci se fait en visant l'étoile polaire par l'intermédiaire d'une petite lunette logée dans l'axe de la monture.

La réalisation d'une photographie astronomique telle que le Pélican, nécessite de maîtriser autant que possible, tous les paramètres mécaniques, électroniques et logiciels. 

Une fois les images individuelles enregistrées sur le disque dur, il faut les superposer avec un logiciel adapté et les traiter pour faire ressortir le signal très ténu de la nébuleuse.

dimanche 14 août 2011

La nébuleuse de la trompe d'éléphant

La nébuleuse de la trompe d'éléphant se trouve à 2400 années-lumière de la Terre dans la constellation Céphée, elle fait partie d'un ensemble nébuleux plus large référencé IC1396 dans le  "Index Catalog of nebulae and clusters of stars". La trompe est une zone dense de poussières et de gaz soumis aux intenses radiations des étoiles proches.

La photo ci dessous résulte de l'addition de 20 poses individuelles de 6 minutes chacune prise avec une caméra CCD équipée d'un filtre Halpha qui sélectionne une longueur d'onde caractéristique de l'hydrogène.





Les émissions dans la raie Halpha, notamment la bordure brillante au bout de "la trompe" résulte de l'interaction du rayonnement provenant de l'étoile massive à droite de l'image avec l'hydrogène de la nébuleuse. Dans la petite zone plus claire au bout de "la trompe", on observe un couple d'étoiles dont le rayonnement a littéralement sculpté une cavité dans le nuage de gaz et de poussières. IC1396 est une zone de formation d'étoiles ; celles-ci sont masquées par les nuages de poussières mais ont été révélées par le télescope spatial infrarouge Spitzer.

IC1396 contient plusieurs nébuleuses obscures qui font parties du catalogue dressé par l'astronome Edward Emerson Barnard. Elles sont répertoriées dans son magnifique ouvrage : "A photographic atlas of selected region of the Milky Way".

lundi 1 août 2011

La nébuleuse du Cocon dans le Cygne

La nébuleuse du Cocon se trouve au bord de la constellation du Cygne, non loin de celle du Lézard. Elle porte la référence IC5146 dans le "Index Catalog of Nebulae and Clusters of Stars". Il s'agit d'une nébuleuse à la fois en réflexion et en émission, c'est à dire qu'elle réfléchit une partie de la lumière des d'étoiles environnantes, et que les atomes qui la composent (essentiellement de l'hydrogène) sont excités par les radiations d'étoiles proches.

La nébuleuse du Cocon est associée à un amas ouvert, c'est à dire un ensemble d'étoiles jeunes qui se sont formées ensemble dans une même région active de la galaxie, et qui n'étant pas suffisamment liées gravitationellement, ont tendance à se disperser.

Quand elle est photographiée en grand champ, on peut apercevoir la nébuleuse obscure Barnard 168 qui dessine une sorte de chemin noir au milieu des étoiles, se terminant par le Cocon. Avec un peu d'imagination on pourrait croire que cette boule cotonneuse a essuyé toute une zone de la voie lactée...

L'image ci dessous a un champ trop étroit pour mettre en évidence Barnard 168, mais on devine quand même qu'il y a moins d'étoiles autour du Cocon qu'ailleurs. En réalité il y a autant d'étoiles, elles sont justes masquées par des amas de poussières.

L'amas ouvert et la nébuleuse se trouvent à environ 4000 années-lumière, le Cocon s'étant sur une quinzaine d'années-lumière.

La photographie ci-dessous est le résultat de l'addition de 25 images individuelles représentant un total de 2h de poses avec un filtre Halpha qui privilégie la partie "émission" de la nébuleuse.


dimanche 24 juillet 2011

Commence t'on à voir le bout de la queue du Higgs ?

La vie des expériences de physique de particules est rythmée par les conférences d'hiver et surtout d'été. Sortes de grand-messes rassemblant plusieurs centaines de physiciens dont beaucoup ont travaillé d'arrache-pied pour que les collaborations soient prêtes à présenter leurs derniers résultats.

Cette année la grande conférence d'été HEP 2011, organisée par la European Physics Society (EPS) a lieu à Grenoble. Les sessions de vendredi dernier étaient très attendues car les expériences installées sur le collisionneur LHC du CERN devaient présenter leurs premières analyses tentant de mettre en évidence l'existence ou non du boson de Higgs.

La recherche du Higgs s'apparente vraiment à l'exploration minutieuse de bottes de foin pour découvrir quelques aiguilles. La signature de la désintégration du Higgs est noyée dans un bruit de fond gigantesque provenant d'autres processus physiques. Il faut faire appel à des procédure statistiques très complexes de manière à pouvoir extraire le maximum d'informations de la masse d'interactions enregistrées par les détecteurs. Aussi sophistiquées soient les techniques mathématiques, l'interprétation des résultats obtenus reste soumise aux lois de la statistique et on ne pourra jamais parler qu'en terme de probabilités d'avoir observé ou non un phénomène.

La communauté scientifique admet que lorsqu'un signal est observé et que la probabilité pour qu'il s'agisse d'une fluctuation est de l'ordre de 1/000 on parle "d'evidence" au sens anglo-saxon du terme qui est beaucoup moins fort qu'en Français. Pour parler de découverte, il faut que la probabilité pour que le signal observé ne soit qu'une fluctuation statistique soit de l'ordre, ou plus petite que 1 pour 10 millions !

Pour se rendre compte de l'impact réel de ces valeurs, on peut s'imaginer face à la situation où l'on va prendre un risque vital. Personnellement, si j'ai le choix, avec une probabilité de 1 chance sur 1000 d'y laisser ma vie, je ne prends pas le risque. Par contre je peux admettre d'avoir une chance sur 10 millions d'y laisser ma peau !

Les expériences ATLAS et CMS ont toutes deux présenté leurs résultats sur la recherche du Higgs. Pour l'instant aucun signal n'est visible et plusieurs régions en masse sont d'ores et déjà exclues à 99% de niveau de confiance (c'est à dire qu'il reste quand même un petit % de possibilité qu'il soit quand même là). Par contre, les deux expériences observent un excès de collisions présentant des caractéristiques similaires à la production d'un boson de Higgs dans la région de masse comprise entre 130 et 150 GeV.

Pour illustrer la chose, voici une figure présentée vendredi par ATLAS :
Figure présentée par Kyle Cranmer (NYU) à la conférence HEP 2011
à Grenoble. Voir la présentation ici


L'excès observé correspond à la zone indiquée par la flèche, où la ligne noire passe au dessus de la zone jaune.

Pour l'instant, on ne peut donc rien conclure et il faudra attendre que les expériences aient accumulé suffisamment de collisions pour savoir si l'excès se renforce et passe le seuil fatidique permettant d'annoncer une découverte, ou bien si l'excès se dilue dans le bruit de fond.

samedi 16 juillet 2011

L'anneau de la Lyre

Bien haut dans le ciel d'été, la minuscule constellation de la Lyre contient Véga, une étoile blanche, deux fois plus massive que le Soleil et qui forme avec Deneb du Cygne et Altaïr de l'Aigle, le triangle d'été. Non loin de là, se trouve l'un des très beaux objets du ciel profond : la nébuleuse annulaire de la Lyre, découverte en 1779 par l'astronome toulousain Antoine Darquier de Pellepoix et portant la référence M57 dans la catalogue de Charles Messier.

L'anneau de la Lyre est une une nébuleuse planétaire c'est à dire le résultat de l'effondrement d'une étoile relativement peu massive (jusqu'à environ 8 masses solaires) quand celle-ci a fini de brûler son hydrogène et son l'hélium. Lors de cet effondrement, les couches extérieures de l'étoile sont expulsées à très grande vitesse et émettent de la lumière sous l'effet de l'intense rayonnement ultraviolet provenant de ce qui reste de l'étoile. Cette dernière, devenue extrêmement chaude (50 000 à 100 000 Kelvin) et dense (son diamètre est de l'ordre de grandeur de celui de la Terre), continue de briller au centre de la nébuleuse.

Le qualificatif "planétaire" fait référence à l'aspect de ces nébuleuses qui se présentent sous la forme d'un petit disque lorsqu'on les observe avec un petit télescope.

L'image ci dessous est une superposition de 26 poses de 2 minutes chacune. Elle a été réalisée avec un télescope de grande focale (1900 mm) de façon à obtenir un grossissement suffisant pour observer le minuscule anneau avec suffisamment de détails. La présence de la pleine Lune n'est pas favorable pour la photographie du ciel profond et contribue à dégrader l'aspect du fond du ciel. Au centre de l'anneau, on distingue très bien la naine blanche.

dimanche 3 juillet 2011

La nébuleuse Trifide dans le Sagittaire

Durant les belles nuits d'été depuis un point d'observation à l'abri de la pollution lumineuse, on peut observer la voie lactée, magnifique bande nébuleuse qui s'étend de Cassiopée au nord jusqu'au Sagittaire à l'horizon sud en passant par le triangle d'été formé par les étoiles Deneb du Cygne, Véga de la Lyre et Altaïr de l'Aigle.

Le Sagittaire, grande constellation en forme de théière ou de bouilloire (!), indique la zone dans laquelle se trouve le centre de notre Galaxie. C'est donc une région active qui héberge bon nombre d'objets astronomiques intéressants sur le plan scientifique et très esthétiques à observer. Malheureusement, depuis nos latitudes, cette région du ciel n'est visible qu'en été et se trouve très bas sur l'horizon, souvent noyé dans le halo lumineux engendré par l'éclairage aberrant de nos villes.

Pour observer le Sagittaire dans de bonne condition, il faut donc aller dans des endroits protégés et si possible en altitude pour limiter les effets de la turbulence de l'atmosphère.

La nébuleuse Trifide, catalogué en vingtième position dans le catalogue de Charles Messier (M20), est l'un des très beaux objets du Sagittaire.  Il s'agit d'un nuage de gaz qui rayonne sous l'effet de la lumière intense des étoiles environnantes et qui est obscurci en certains endroits par des zones de poussières.

Hier soir, j'ai photographié M20 avec une caméra CCD montée sur une petite lunette de 66 mm d'ouverture pour 400 mm de focale. La caméra était équipée d'un filtre spécial - dit Halpha- afin de faire ressortir les zones de la nébuleuses qui correspondent à une certaine excitation de l'hydrogène qui le fait réémettre dans le rouge. L'hydrogène étant de très loin, l'élément le plus abondant dans l'Univers, de très nombreuses nébuleuses émettent cette radiation bien particulière.

L'image ci-dessous est le résultat de l'accumulation de 30 poses de 4 minutes, soit un total de 2h de pose. La taille de cet objet dans le ciel est équivalente à celle de la pleine Lune, il est malheureusement bien trop peu lumineux pour être observé à l'oeil nu.

lundi 27 juin 2011

Une supernova dans les Chiens de Chasse

Dans la nuit du 31 mai, je suppose que bon nombre de télescopes et lunettes astronomiques d'amateurs étaient pointées vers l'un des plus beaux objets du ciel profond, à savoir la galaxie des Chiens de Chasse, alias le tourbillon, alias M51. Combien d'astronomes amateurs ont noté qu'il y avait une étoile en trop ? Sans doute très peu... La réponse est : au moins quatre, car c'est le nombre de co-découvreurs de la supernova 2011dh, quatre co-découvreurs amateurs, plus rapides que tous les systèmes professionnels de surveillance automatique du ciel.

La supernova a été confirmée peu de temps après par les observatoires professionnels qui ont pu réaliser des spectres de l'étoiles. Ceux-ci ont révélé la présence d'hydrogène, caractéristique d'une supernova de type II et une dominance de l'hélium sur l'hydrogène signature d'un type IIb. L'étoile qui a explosé était donc relativement massive (plus de 8 masses solaires) et l'explosion a coïncidé avec l'effondrement gravitationnel du coeur de fer formé par la fusion thermonucléaire des éléments plus légers. C'est au cours de l'explosion de ce genre d'étoiles que des éléments lourds sont synthétisés puis expulsés dans l'espace.

Personnellement j'avais fait une image de la galaxie M51 au mois de mars 2011:

























J'ai eu l'occasion d'en refaire une samedi dernier :

























Arrivez vous à pointer la supernova ? Pas évident n'est-ce pas ? L'animation ci-dessous, qui alterne l'affichage des deux images alignées l'une par rapport à l'autre, permet de bien voir cette étoile qui s'allume à 31 millions d'années-lumière de la Terre.

samedi 18 juin 2011

T2K

J'ai déjà parlé des neutrinos il y a quelques temps (voir ici et ). Les neutrinos sont donc des particules élémentaires dotées d'une très faible masse et dépourvues de charge électriques. Ils interagissent si peu avec la matière qu'ils peuvent traverser la Terre de part en part sans en être perturbés. Dans le modèle standard de la physique des particules, les neutrinos existent sous trois formes différentes appelées saveurs, chacune associée à une particule chargée - les électrons, les muons et les taus - l'ensemble formant la famille des leptons. Les neutrinos peuvent donc être du genre électronique, muonique ou tauique. Un neutrino électronique interagissant avec la matière par l'intermédiaire du processus physique appelé courant chargé va produire un électron, un neutrino muonique produira un muon et un neutrino tauique … un tau !

En 1998, les résultats de l'expérience super-Kamiokande ont confirmé la possibilité pour les neutrinos de changer de saveur au cours de leur trajet. Ce phénomène étrange, possible uniquement dans le cadre de la mécanique quantique est nommé : oscillation. Dans le but de simplifier et moyennant quelques accrocs à la rigueur scientifique, on peut dire que la probabilité d'oscillation d'une saveur de neutrino vers une autre dépend du rapport L/E, c'est-à-dire de la distance de vol du neutrino divisée par son énergie, de la différence de masse au carré des neutrinos mis en jeu et d'angles caractéristiques du mélange entre les différents neutrinos.

Jusqu'à récemment le phénomène d'oscillation n'avait été mis en évidence qu'en constatant la disparation de neutrinos d'une saveur donnée et d'énergie connue, après une certaine distance de vol. Au printemps 2010, l'expérience OPERA  a observé l'apparition probable d'un unique neutrino de type tau dans un faisceau de neutrinos de type muon produit au CERN à 730 km du détecteur et traversant la croute terrestre pour resurgir dans le laboratoire souterrain du Gran Sasso en Italie.

Il ya quelques jours, l'expérience T2K (raccourci pour Tokai to Kamiokande) a annoncé l'observation de 6 neutrinos électroniques dans un faisceau de neutrinos muoniques ayant parcouru 295 km entre l'accélérateur situé à Tokaï et le détecteur géant : super-Kamiokande. Les modélisations prédisent la détection de 1.5 neutrinos électroniques en l'absence d'oscillation ; la détection de 6 neutrinos est donc une indication forte pour l'existence d'une oscillation de la saveur muonique vers la saveur électronique, mais la signification statistique du résultat n'est pas encore suffisante pour annoncer une observation sans ambiguïté du phénomène.

Les physicien sont donc tenus en haleine en attendant un résultat portant sur une plus grande statistique, malheureusement l'accélérateur du complexe J-PARC à Tokaï qui produit le faisceau de neutrinos muoniques a subit des dommages lors du tremblement de terre de mars 2011 et ne pourra pas être remis en service avant la fin de l'année.

Avec OPERA et surtout T2K, la physique des neutrinos passe un cap important. L'enjeu est de taille, puisque dans ce mécanisme de mélange entre neutrinos, se cache peut-être l'explication de l'origine de l'asymétrie entre la matière et l'antimatière dans l'Univers, mais il faudra encore beaucoup de temps, d'énergie et d'astuce pour arriver à démêler l'écheveau complet de la physique des neutrinos.

dimanche 15 mai 2011

Matière noire - Deuxième

Dans un article récent, je décrivais comment certaines expériences terrées au fond de cavernes souterraines traquent d'hypothétiques particules de matière noire. Ainsi les détecteurs EDELWEISS (Laboratoire Souterrain de Modane en France) et CDMS (Soudan Underground Laboratory aux USA) tentent de mesurer simultanément  les signaux d'ionisation et de chaleur résultant du "choc" élastique de particules de matière noire nommés WIMPS (pour Weakly Interacting Massive Particles) sur des noyaux de germanium. Jusqu'à présent ces techniques de détection n'ont pas permis de mettre en évidence un signal concluant.

Très récemment la collaboration XENON100 (Laboratoire Souterrain du Gran Sasso en Italie) a annoncé ses tout premiers résultats après 100 jours de fonctionnement du détecteur ; résultats négatifs également - aucun signal de matière noire ! XENON100 est une petite merveille d'ingéniosité scientifique qui utilise une centaine de kilogramme de xénon liquide à la fois comme cible pour les WIMPS et comme milieu détecteur. Le xénon présente la particularité d'émettre une lumière de scintillation lorsqu'il est traversé par des particules chargées et de se prêter à la mise en œuvre d'une méthode de mesure de l'ionisation extrêmement précise appelée Projection Temporelle ; celle-ci permet de reconstruire en trois dimensions les traces des électrons d'ionisation. La combinaison de ces techniques - ionisation et scintillation - permet de réduire le bruit de fond de manière drastique et d'obtenir l'identification d'un éventuel signal de manière très propre. XENON100 est le premier élément d'un ensemble plus complexe qui permettra à terme d'atteindre une tonne de milieu détecteur. Avec cette masse et si le bruit de fond est bien maitrisé, cette expérience pourrait bien donner un résultat décisif dans les prochaines années, soit en détectant quelques WIMPS, soit en ne détectant rien du tout, ce qui mettrait à mal les théories sur la matière noire.

Parmi toutes les expériences consacrées à la recherche des WIMPS, l'une d'entre elle obtient un très beau résultat qui à toutes les caractéristiques d'un signal de matière noire. Il s'agit de l'expérience DAMA (DArk MAtter). L'approche est un peu différente de ce qui a été présenté précédemment, DAMA utilise 250 kg de cristaux d'iodure de sodium (NaI) ultra purs. L'iodure de sodium a la propriété d'émettre de la lumière par un mécanisme de scintillation lorsqu'il est traversé par des particules chargées (comme le xénon liquide dans XENON100), la quantité de lumière émise étant proportionnelle à l'énergie déposée dans les cristaux. 

Les autres expériences se basent au moins sur deux signaux complémentaires et indépendants afin de réduire le bruit de fond. DAMA ne disposant que de la mesure de la lumière de scintillation il faut donc trouver une autre façon de caractériser la matière noire. 
Source :
http://www.hep.shef.ac.uk/research/dm/intro.php
L'astuce consiste à utiliser le fait que le système solaire tourne dans la galaxie et passe donc au travers du halo de matière noire qui est supposé baigner la galaxie. Comme illustré par la figure ci-contre, la Terre tournant, elle-même autour du Soleil  va donc sentir un "vent relatif" de matière noire dont la vitesse va dépendre de la période de l'année. En hiver la Terre se déplace en sens inverse du mouvement du Soleil dans la galaxie, alors qu'à la fin du printemps sa vitesse s'ajoute à celle du Soleil. Si la matière noire existe, on s'attend donc à ce que les WIMPS frappent les détecteurs avec une vitesse plus importante juste avant l'été que durant hiver, le signal d'ionisation détecté devrait donc être modulé suivant la période de l'année avec un maximum de signal autour du 2 juin. DAMA a pu accumuler des données sur 13 cycles solaires et, comme illustré par le graphique ci-dessous, voit clairement une modulation du signal parfaitement compatible avec ce qu'on attendrait pour de la matière noire avec notamment un maximum le 2 juin.
Source : http://arxiv.org/abs/1002.1028
Seul "petit" problème ; le signal de WIMPS vu par DAMA est incompatible avec les résultats des autres expériences ! Après avoir écarté toutes les possibilités de biais expérimentaux, la communauté scientifique est maintenant convaincu que DAMA voit bien quelque chose de réel, mais on ne sait toujours pas quoi.
Le résultat présenté par CoGeNT à l'APS
Lors du congrès d'avril de l'American Physics Society, l'expérience américaine CoGeNT qui utilise des détecteurs au germanium, a montré ce qui ressemble fortement à une modulation du signal compatible avec l'observation de DAMA. Le signal n'est pas encore statistiquement significatif, mais ces premières indications relancent la discussion dans le milieu de la physique de la matière noire.

Voici en tout cas l'exemple typique d'un problème scientifique ardu avec des résultats expérimentaux très surprenants  et qui démontre, s'il en était besoin, que lorsqu'on travaille aux frontières de la connaissance il faut être prêt à faire face à quelques surprises et à remettre en cause ce que l'on pense bien établi.