dimanche 28 octobre 2012

Quand la gravitation nous fait voir double

Prédit dès 1937 par Fritz Zwicky comme une conséquence de la théorie de la relativité générale, le phénomène de lentille ou de mirage gravitationnel a été effectivement observé pour la première fois en 1979 par les astronomes Dennis Walsh, Bob Carswell, and Ray Weyman sur des images obtenues  sur un télescope de 2.1 m de l'observatoire Kitt Peak. Il s'agissait de l'image d'un quasar nommé SBS 0957+561 dédoublée par l'effet gravitationnel d'une galaxie située en avant plan.

L'explication du phénomène fait intervenir la relativité générale, mais peut-être illustrée de manière simple ; 
Illustration du phénomène de lentille gravitationnelle - Source NASA
un objet très massif telle qu'une galaxie, courbe l'espace-temps. Les rayons lumineux provenant d'un objet situé en arrière-plan suivent cette courbure de telle façon qu'un observateur situé sur la ligne de visé verra une ou plusieurs images déformées et amplifiées de l'objet en question. La galaxie se comporte alors comme le ferait une lentille située sur le trajet des rayons lumineux.

Au-delà de l'aspect spectaculaire de cet effet qui illustre de façon flagrante et non ambiguë une conséquence de la relativité générale, il est possible de tirer profit des lentilles gravitationnelles pour étudier des objets invisibles autrement ou pour mesurer des paramètres cosmologiques.

Mirages gravitationnels observés par Hubble

Si on observe l'univers de manière suffisamment profonde, on se rend compte que les distorsions gravitationnelles sont omniprésentes, bien que parfois très peu marquées. Les images des galaxies lointaines sont distordues par de multiples déformations de l'espace-temps associées à la matière située en avant-plan. L'effet gravitationnel est qualifié de "faible", on parle alors de "weak lensing" ou de cisaillement gravitationnel. Une analyse statistique des déformations permet par exemple de dresser des cartes de la distribution de matière visible et invisible  dans les régions du ciel observées. Il s'agit d'un outil très puissant puisqu'il permet de cartographier la matière sombre sans la voir (évidemment !) et  sans avoir à faire d'hypothèse s sur sa nature.

L'effet de lentille gravitationnelle peut également être "fort", dans ce cas on observera un objet particulier (galaxie, quasar, etc…) amplifié, déformé et dédoublé. Ce type de phénomène est rare car il requière que l'observateur, la masse "défléchissante" et l'astre observé soit pratiquement alignés., de plus il se manifeste surtout pour des astres peu lumineux car très éloignés car cela maximise les chances qu'un objet massif se trouve au bon endroit.

Avec les grands relevés astronomiques et notamment avec le Large Synoptic Survey Telescope(LSST) qui imagera de nombreuse fois chaque région du ciel au cours de ses dix ans de service il deviendra possible d'observer des effets de lentilles gravitationnelles forts sur des astres dont la luminosité varie rapidement avec le temps, par exemples des quasars ou des supernovæ. Dans le cas des supernovæ, on pourra alors observer l'apparition des images multiples décalées dans le temps. En effet, les chemins optiques correspondants aux multiples images (mirages) sont différents et il peut s'écouler quelques mois, voire quelques années entre l'apparition de deux images successives. Comme illustré ci-dessous, on pourra alors disposer d'une sorte de film montrant les apparitions et les disparations des différentes images de la supernovæ. 
"Film" de l'apparition des images successives d'une supernovæ par effet de lentille gravitationnel fort - Simulation réalisée dans le cadre du projet LSST - Source : http://www.lsst.org/files/docs/aas/2006/Kirkby.pdf 
Pour des supernovæ de type 1A dont la courbe de luminosité et le spectre sont bien connus, il sera possible de déterminer très précisément le décalage temporel entre les différentes images qui est lié à la "constante" de Hubble. Inversement, si la constante de Hubble est connue via d'autres méthodes, l'effet de lentille gravitationnelle fort donne des indications précises sur la distribution de la matière (normale et noire) constituant l'objet déflecteur. En 10 ans d'opération on estime que LSST devrait observer une grosse centaine de ces mirages gravitationnels de supernovæ  de type 1A.

vendredi 19 octobre 2012

Le Large Synoptic Survey Telescope (LSST)


Une, deux, trois, quatre… cinquante-six, cinquante-sept … quatre-vingt-dix-neuf, CENT... s'exclame l'enfant qui pointe les étoiles avec son doigt et tente de les compter … toutes ! De tout temps, les Hommes ont ressenti le besoin de compter les astres, de les répertorier, de les classer… le simple fait de les rassembler dans des constellations était déjà une manière de créer un catalogue.  Au fil du temps et avec l'aide de l'évolution technologique les catalogues ont pris de l'ampleur ; étoiles, astéroïdes, comètes, galaxies, quasars, supernovæ… les répertoires contiennent au minimum les coordonnées astronomiques des astres, mais peuvent aussi être enrichis d'autres informations telles que la couleur, le spectre, le décalage vers le rouge, la dimension angulaire où autres paramètres caractérisant la forme des galaxies, etc.

La plupart des grands télescopes sont des instruments mis à la disposition de la communauté des astronomes qui proposent des projets d'observation dans un but scientifique donné et qui obtiennent pour cela, plus ou moins de temps d'instrument. Les observations ne se font évidemment pas l'œil rivé à l'oculaire, mais avec des caméras CDD, des spectrographes, ou autres instruments qui délivrent des données qu'ils convient de traiter afin de pouvoir en extraire des informations pertinentes.

D'autres télescopes fonctionnent d'une manière différente, ils  exécutent des relevés systématiques (surveys en anglais) d'une portion ou de la totalité du ciel visible depuis l'endroit où ils se trouvent. En jouant sur le temps de pose, ils peuvent également faire des relevés en profondeurs (deep sky surveys) en augmentant les temps de pose afin d'observer les galaxies les plus ténues dans un champ donné. Afin d'être efficace dans ces relevés, il convient d'utiliser des instruments offrant un très grand champ, c’est-à-dire capable de photographier la plus grande fraction du ciel possible à chaque pose.

Dès 1949, le télescope Samuel Oschin au Mont Palomar entamait le premier grand relevé, nommé  "National Geographic Society- Palomar Observatory Sky Survey " ou NGS-POSS. Terminé en 1958, il servit, au moins partiellement à la constitution de nombreux catalogues. Le télescope Samuel Oschin était conçu avec une formule optique dite de Schmidt offrant un très large champ.

Par la suite plusieurs grand relevé eurent lieu, comme par exemple le Digitized Sky Survey (DSS) achevé en 1994 ou encore le Sloan Digital Sky Survey (SDSS) commencé en 2000 et dont la troisième passe s'achèvera en 2014. L'instrument BOSS (Baryonic Oscillation Spectroscopic Survey) complète les informations enregistrées par SDSS avec des relevés spectroscopiques qui ont notamment servis à la mise en évidence des Oscillations Acoustiques Baryoniques (BAO), phénomène fournissant un étalon standard de longueur à l'échelle cosmique, très pratique pour étudier l'évolution du taux d'expansion de l'univers en fonction de son âge.

L'idéal pour les astrophysiciens est de disposer d'un instrument capable de photographier la plus grande fraction possible du ciel pour être exhaustif, le plus rapidement possible afin de détecter et de suivre les phénomènes transitoire et le plus profondément possible afin d'observer les galaxies les plus lointaines, donc les plus âgées. Le projet LSST (Large Synoptic Survey Telescope) est conçu pour satisfaire au mieux tout ces critères.
Le télescope LSST tel qu'il sera installé sur le Cerro Pachòn. La forme du bâtiment a été optimisé pour limiter les turbulences
Le télescope LSST, sera  installé sur le Cerro Pachón au nord du Chili, site disposant de conditions atmosphériques exceptionnelles avec un seeing moyen de 0.67 secondes d'arc et 80% des nuits propices à l'observation. Le télescope de 8.4 mètres de diamètre est conçu autour d'une formule optique à trois miroirs, dite "Paul Baker" de rapport f/d (distance focale divisée par le diamètre du miroir) égal à 1.23 qui procure une luminosité exceptionnelle à l'instrument.

Le télescope LSST
Le plan focal du télescope sera instrumentée à l'aide d'une caméra pesant la bagatelle de 2.8 tonnes et composée de 189  plaques de capteurs CCD représentant un total de 3.2 milliards de pixels. Elle permettra de couvrir un champ de 9.62 deg2 lors de chaque prise de vue. Elle sera couplée à un système capable de positionner six filtres permettant de sélectionner des bandes de longueurs d'onde situées dans  la gamme comprise entre 320 nm (ultraviolet) et 1080 nm (infrarouge). Chaque filtre présente un diamètre de 76 cm et pèse entre 30 et 44 kg ! Outre les 189 CCD principaux, la caméra est dotée de quatre séries de CCD disposés sur la  périphérie du plan focal et destinés à l'alignement et au contrôle du front d'onde.  L'ensemble caméra + filtres + électronique de lecture est un objet extrêmement pointu du point de vue technologique et représente un véritable défi de conception et de réalisation.
La caméra du projet LSST

  • La séquence de fonctionnement du télescope sera la suivante :
  • Pose de 15 s
  • Positionnement de l'obturateur durant 1 s
  • Lecture des CCD durant 2 s
  • Nouvelle pose de 15 s
  • Positionnement de l'obturateur durant 1 s
  • Lecture des CCD durant 2 s
  • Positionnement du télescope sur une nouvelle zone (proche) durant 5 s

Cette séquence de fonctionnement est répétée à longueur de nuits, éventuellement interrompue par un changement de filtre qui dure environ 2 minutes. Avec une telle cadence et un tel champ, il n'était pas envisageable de faire de la spectroscopie, les six filtres fournissent toutefois suffisamment d'informations pour caractériser les objets observés par photométrie, c’est-à-dire en exploitant l'intensité lumineuse enregistrée par les CCD au travers de chaque filtre.

Les  capteurs CCD délivrent un signal codé sur 16 bits ce qui engendre un flux de données d'environ 15 To par nuit d'observation. Le système de traitement "en ligne " des données permettra de délivrer des alertes sur des phénomènes intéressants avec un délai de seulement 60 secondes. Le traitement "en profondeur" des données CCD sera effectué par deux grand centre de traitement de données ; le National Center for Supercomputing Application (NCSA) à Urbana-Champaign dans l'Illinois et le Centre de Calcul de l'Institut National de Physique Nucléaire et de Physiquedes Particules (CNRS / CC-IN2P3) en France à Villeurbanne.

Chaque portion du ciel sera observée un millier de fois durant les 10 ans de fonctionnement du projet, ceci permettra d'additionner les poses correspondantes et d'augmenter considérablement la profondeur des champs sondés. On passe ainsi d'une magnitude limite de 24.5 pour une pose unique (en fait deux poses de 15 secondes)  à une magnitude de 27.5 pour l'intégralité des champs observés au bout de dix ans.  Le résultat du traitement des images sera stocké dans un ensemble d'immenses bases de données occupant 30 Pétaoctets (30 milliards de Go) d'espace de stockage informatique.

Autant les alertes délivrées par le traitement "en ligne" que les catalogues des objets reconstruits seront mis à la disposition de la communauté scientifique ainsi que du grand public. Tout un programme de diffusion de la connaissance vers le grand public fait partie intégrante du projet LSST.

LSST entamera une phase de validation de deux ans à partir de 2018 et rentrera en pleine production dès 2020 pour un fonctionnement quasiment continu pendant 10 ans. Le champ scientifique délivré par LSST est extrêmement vaste, il s'étend depuis la recherche d'astéroïdes géo-croiseurs jusqu'à l'étude des grandes structures de l'univers et de l'énergie noire en passant par les  détections et les mesures de supernovæ.

Liens :
Le site du projet LSST (en anglais) : http://www.lsst.org/lsst/ voir notamment la galerie photo

dimanche 9 septembre 2012

BAO - Un étalon cosmique


Sous le terme barbare d'Oscillations Acoustiques Baryoniques ou BAO se cache une avancée récente dans le domaine de la cosmologie qui devrait apporter dans les prochaines années un outil très intéressant pour étudier l'évolution du taux d'expansion de l'univers au cours du temps et ainsi amener de précieux indices sur la nature de l'énergie noire.

À plus d'un titre l'Univers est un objet d'étude extraordinaire. L'un des aspects les plus fascinant à mon avis, est le fait que faisant partie de cet Univers, nous n'avons pas d'autres choix que de l'observer depuis un point de vue très particulier, situé en un endroit et à un instant précis. À partir de ce que nous observons ici et aujourd'hui, la cosmologie consiste à tenter de déduire le comportement global de cet Univers  partout et à tout moment.

Heureusement pour le cosmologiste, le fait que la vitesse de propagation d'un signal (lumineux ou autre) soit finie, permet en observant des objets lointains, non seulement de voir ailleurs, mais aussi de remonter dans le passé.  L'Univers au cours de son évolution laisse tout un ensemble de traces de son activité. Les signaux émis en un lieu et à un moment donné, pour peu qu'ils ne soient pas absorbés, se propagent indéfiniment. Au cours de ce voyage ils subissent les effets de l'évolution même de l'Univers, ils portent donc en eux tout un ensemble d'informations imbriquées sur les phénomènes qui leur ont donné naissance et sur la dynamique de l'espace-temps qu'ils ont traversé. Charge au physicien de démêler l'écheveau et d'en extraire les lois fondamentales qui gouvernent l'évolution de l'Univers.

La grande difficulté des mesures cosmologiques vient du fait que lorsqu'on observe un objet  nous ne disposons ni de mesure de distance absolue, ni de mesure de temps. La notion même de distance est ambiguë : parle-t-on de la distance séparant l'observateur et l'astre au moment où ce dernier a émis un signal lumineux, ou bien de la distance entre l'observateur et l'astre aujourd'hui ? Parle t-on de la distance déduite de la luminosité de l'astre ou encore de celle que l'on détermine à partir de la dimension angulaire de l'objet. Toutes ces définitions de distances ont un sens physique, mais ne donnent pas un résultat identique, loin de là...

Le décalage spectral "z", c’est-à-dire l'allongement des longueurs d'onde des signaux émis par les objets lointains est l'ami du cosmologiste observationnel. En effet ce décalage vers le rouge est lié au rapport entre une échelle de distance caractéristique de l'Univers au moment de l'émission du signal et la même échelle au moment de la réception du signal.  En d'autre terme ; entre le moment où le signal est émis et celui où il est reçu, l'Univers a subi une expansion dont dépend la valeur du décalage spectral. Malheureusement il n'est pas possible d'en déduire une distance absolue car on ne connait pas a priori la façon dont l'Univers se dilate. Par contre, on sait qu'un astre lointain possédant un décalage spectral plus grand qu'un autre se situe à une plus grande distance.

Concernant la distance déterminée à partir de la luminosité, il est possible de sonder l'univers lointain en observant des supernovae de type 1A car ces astres évoluant selon un processus connu et probablement très uniforme, il est possible de déterminer leur luminosité absolue. En comparant, la luminosité absolue calculée avec la luminosité apparente, on obtient une mesure de la distance de luminosité. En répétant cette mesure pour des astres possédant différents décalages spectraux, on peut tracer une courbe sensible à la façon dont l'Univers se dilate. C'est ainsi qu'en 1998, les équipes du Supernova Cosmology Project  et du High-z SupernovaSearch Team constatèrent indépendamment que les supernovae les plus lointaines brillaient un peu moins que ce qui étaient attendu. La conclusion, fort surprenante, fut que l'Univers semble être actuellement dans une phase d'expansion accélérée. C'est cette observation, confirmée par la suite par les mesures du rayonnement de fond cosmologique, qui a conduit à l'hypothèse de l'existence d'une énergie noire qui représenterait les trois quart de la densité en énergie de l'Univers.

Malheureusement toutes ces mesures reposent sur l'hypothèse que les supernovae de type 1A sont bien des chandelles standards, c’est-à-dire qu'elles brillent et évoluent toutes de la même manière ce qui fait largement débat et est difficile à contrôler. Pour faire des mesures vraiment précises, l'idéal serait de disposer d'une sorte de règle ou d'étalon cosmique que l'on puisse mesurer à différentes périodes de l'évolution de l'Univers. Cet étalon existe, c'est une dimension caractéristique liée à ce qu'on nomme du nom barbare d'Oscillations  Acoustiques des Baryons dont l'acronyme anglais est BAO.

Peu de temps après le big-bang, l'Univers est très chaud et est rempli d'un plasma constitué d'électrons, de protons et de neutrons. Les photons produits par les interactions entre les particules de matières ne peuvent pas se propager facilement, ils sont tout de suite réabsorbés en interagissant avec le plasma. A l'intérieur de ce plasma, il y a de petites inhomogénéités, qui donneront plus tard naissance aux grandes structures de l'Univers. Certaines régions sont donc un petit peu plus denses et attirent gravitationnellement  la matière environnante ce qui a pour effet d'augmenter le nombre d'interactions entre les grains de matière qui émettent une radiation sous forme de photons. Cette radiation va avoir tendance à repousser la matière qui va aller créer des zones de surdensité ailleurs. Ce phénomène de pulsation perdure tant que l'Univers est suffisamment chaud pour que les photons interagissent avec la matière, c’est-à-dire pendant environ 380 000 ans, temps auquel la matière et le rayonnement se découplent. Les photons se propagent alors de leur côté et constituent le rayonnement de fond cosmologique que l'on détecte aujourd'hui avec une température de 2.7 Kelvins et qui garde la trace des inhomogénéités de l'Univers primordial. 
Rayonnement du fond cosmologique micro-ondes
Carte des inhomogénéités de la température du rayonnement cosmologique, telles que mesurées par la collaboration WMAP
Les  ondes de matière se propagent également pendant environ 1 million d'années, périodes à laquelle les galaxies commencent à se former. Comme illustré par le graphique ci-dessous, des surdensités de matière existent au centre de l'onde (la zone où elle s'est formée) et sur le front d'onde qui s'est propagé (nommé horizon acoustique). 
Source :  http://cosmology.lbl.gov/BOSS/as2_proposal.pdf
Les galaxies vont avoir tendance à se former au niveau des zones de surdensité qui agissent comme des germes. On s'attend donc à ce qu'aujourd'hui encore, les grandes structures formées par les galaxies conservent une empreinte de ces ondes de pression.

À partir de l'an 2000 le projet SLOAN Digital Sky Survey (SDSS) a entrepris de cartographier des centaines de milliers de galaxies. La figure ci-dessous représente la carte obtenue, on voit clairement que les galaxies ne sont pas réparties de manière isotropes et qu'elles se rassemblent le long de filaments.
Distribution spatiale des galaxies observées par la collaboration  SDSS - Source: http://www.sdss.org/includes/sideimages/sdss_pie2.html
Comme le montre le graphique ci-dessous, l'analyse statistique de la position de ces objets a permis de déterminer que chaque paire de galaxies a une chance plus importante d'être séparée par environ 500 millions d'années-lumière que par 400 millions ou 600 millions. 
Figure extraite de la publication  http://arxiv.org/pdf/1203.6594v1.pdf de la collabration SDSS III - BOSS. Le pic montre que l'empreinte des oscillations acoustiques baryoniques est bien présente lorsqu'on analyse la distribution spatiale des galaxies. Il correspond à une distance privilégiée d'environ 500 années-lumières entre les galaxies.
500 millions d'années-lumière représentent la dimension de l'horizon acoustique des ondes de pression dans l'Univers actuel. Cette mesure fournit également un étalon de longueur pour les études cosmologiques ; en sondant l'Univers à différentes distances (différents décalages spectraux) il est possible de déterminer comment l'étalon de longueur s'est modifié au cours de l'évolution de l'Univers et ainsi d'avoir accès à des paramètres cosmologiques fondamentaux, notamment ceux liés à l'énergie noire.  

Bibliographie :

jeudi 5 juillet 2012

Le Higgs expliqué à Marie-Claire


Chère Marie-Claire,

Pour comprendre l'histoire du boson, il faut d'abord réaliser que tout le fonctionnement de l'Univers repose sur un ensemble de particules élémentaires et de forces qui les font interagir entre elles ou se désintégrer. Les particules élémentaires sont les briques de base nécessaires à la construction de la matière qui nous entoure. Par exemple, pour le physicien des particules le contenu de ton Mojito est un assemblage complexe d'électrons, de protons et de neutrons qui se regroupent pour former des noyaux, des atomes, des molécules et donc des Mojitos. Les protons et les neutrons sont eux-mêmes des assemblages de quarks maintenus ensembles par d'autres particules nommées gluons.

Tout ces assemblages sont décrits par une théorie qui marche super bien. Ça marche même tellement bien que depuis des années les physiciens n'ont pas de grosses surprises, tout est conforme à ce "modèle standard" de la physique des particules .
Le seul problème - et il est de taille - est que cette théorie dans sa version la plus simple n'explique pas pourquoi les particules sont massives. Tout pourrait (devrait) fonctionner avec des particules sans masse.

En 1964, trois physiciens : Robert Brout, François Englert et Peter Higgs ont proposé un mécanisme permettant d'expliquer comment les particules élémentaires acquièrent une masse. L'idée est assez révolutionnaire puisqu'elle repose sur le fait que la masse n'est pas une caractéristique intrinsèque des particules mais qu'elle est le résultat d'une interaction des particules sans masse avec le vide. Le vide n'est donc pas si vide que cela, il est en fait rempli de ce que l'on appelle un "champ", constitué d'une infinité de particules nommés bosons de Higgs. C'est en interagissant avec le champ de Higgs que les particules élémentaires   acquièrent une masse.

On peut se représenter la chose en imaginant une piscine remplie d'eau. Les molécules d'eau représentent le champ de Higgs. Si un  objet traverse la piscine, il va ressentir une certaine viscosité et ralentir, comme s'il devenait subitement plus lourd. Un objet de forme aérodynamique sentira faiblement l'effet de l'eau, par contre un autre objet aux formes anguleuses sera fortement ralenti. Pour les particules c'est pareil ; certaines interagissent beaucoup avec le champ de Higgs , elles ont donc une grande masse; d'autres interagissent très peu et sont donc légères. Note bien toutefois, que les physiciens ne comprennent pas pourquoi certaines particules interagissent plus que d'autres avec le champ de Higgs...

Dans certaines circonstance, il est possible d'exciter le champ de Higgs et de faire se matérialiser un boson de Higgs, un peu comme si en provoquant une vague dans la piscine, on arrivait à faire quelques éclaboussures. Le fait de voir les éclaboussures prouverait à coup sûr que la piscine est bien remplie d'eau.

Les expériences ATLAS et CMS au CERN près de Genève, viennent probablement de réussir à mettre évidence  ces éclaboussures, elles ont détectées la signature caractéristiques de ce qu'on pense être des bosons de Higgs. Ce qui, si c'est confirmé, valide la théorie de Brout, Englert et Higgs et démontre la validité du mécanisme qu'ils ont proposé et qui confère la masse aux particules élémentaires.

Tu ne verras plus jamais ton Mojito de la même manière !

Bises,

Dominique

dimanche 27 mai 2012

Les neutrinos de Daya Bay

Il s'agit pourtant d'une avancée majeure dans la physique des neutrinos, mais curieusement cette découverte est passée plutôt inaperçue en dehors de la communauté des physiciens des particules. La mesure en question a été réalisée au sein d'une collaboration  essentiellement sino-américaine et sur un appareillage installé à proximité des centrales nucléaires de Daya Bay et de Ling Ao au sud-est de la Chine, non loin de Hong-Kong.
Le site de la centrale nucléaire de Daya Bay
Afin de comprendre le résultat obtenu par l'expérience Daya Bay, il faut commencer par revenir au mécanisme d'oscillations des neutrinos qui est un phénomène purement quantique anticipé  sur les neutrinos depuis fort longtemps et finalement mis en évidence en 1998 par l'expérience japonaise Super-Kamiokande. La compréhension du phénomène - comme souvent dans le monde quantique - requière de faire abstraction du sens commun et d'accepter le fait que le comportement des corpuscules puissent être régi par des lois physiques dont nous ne voyons quasiment aucun effet à notre échelle.

Au niveau physique, les neutrinos peuvent être caractérisés soit par leurs interactions avec les autres particules (interactions faibles) soit par leur masse. Si on raisonne sur les interactions,  on observe que les neutrinos peuvent être créés ou bien interagir sous trois formes différentes, on parle alors de neutrinos électrons, neutrinos  muons ou neutrinos taus, c'est ce que l'on appelle les états propres de saveur. Un neutrino électron qui interagit avec la matière va produire un électron, un neutrino muon va produire un muon et un neutrino tau un tau.

Par contre, lorsqu'ils se propagent dans l'espace il faut prendre en compte une autre représentation des neutrinos faisant intervenir leurs  états propres de masse notés n1, n2 et n3

Les états propres de masses et états propres de saveurs sont liés. Les états propres de saveur sont des combinaisons linéaires des états propres de masse et inversement. On passe d'une représentation à une autre par l'intermédiaire d'une matrice de mélange nommée PMNS, pour Pontecorvo, Maki, Nakagawa, Sakata du nom des théoriciens qui l'ont proposée.

Par exemple, la désintégration d'un pion chargé positivement va créer un anti-muon et  un neutrino muon (état propre de saveur). Ce dernier est une superposition quantique des trois états propres de masse,  n1, n2 et n3. Les états propres de masse se propagent dans l'espace à des vitesses légèrement différentes les uns des autres (le plus léger allant le plus vite et le plus lourd allant le moins vite). Il ne faut pas se représenter la propagation des neutrinos comme celle de corpuscules,  mais plutôt  imaginer la propagation de trois paquets d'ondes.  Ces paquets d'ondes interfèrent entre eux et en raison de leur différence de vitesse de propagation, l'interférence se modifie au cours du temps, favorisant ainsi l'apparition de neutrinos d'une nouvelle saveur au détriment de la saveur initiale. Un neutrino produit avec une saveur "électron", va avoir une certaine probabilité de se matérialiser avec la saveur  "muon" ou bien la saveur "tau" après une certaine distance de propagation.

Il faut bien comprendre qu'il n'y a pas changement de masse au cours du déplacement car cela violerait le principe de conservation de l'énergie, mais il y a changement du mélange entre les états propres de masse et donc changement de saveur. C'est ce qu'on appelle le phénomène d'oscillation des neutrinos. Pour des paramètres fondamentaux de la physique des neutrinos fixés et pour une énergie donnée, il est possible de calculer la probabilité d'oscillation d'une saveur vers une autre en fonction de la distance à la source de neutrinos.

Les probabilités de transition d'une saveur de neutrino vers une autre dépendent essentiellement des différences des carrés des masses des états propres de masse, et de trois paramètres de mélange caractérisés par des angles provenant de la matrice PMNS mentionnée plus haut. En toute rigueur ces probabilités dépendent aussi d'une phase caractéristique de l'asymétrie entre matière et antimatière dans le domaine des neutrinos (violation de la symétrie CP), mais son effet bien que fondamental du point de vue de la physique, reste faible et n'intervient pour l'instant pas dans les mesures réalisées actuellement. Il faut noter que l'existence du phénomène d'oscillation implique que la masse des neutrinos est non nulle.

Depuis la mise en évidence du phénomène en 1998, les physiciens tentent de mesurer les paramètres fondamentaux des oscillations  en utilisant  diverses sources de neutrinos :
  • Les neutrinos provenant du soleil,  qui dès la fin des années 60 ont fourni les toutes premières indications de l'existence d'un déficit qui se révèlera par la suite être dû au phénomène d'oscillation.
  • Les neutrinos atmosphériques issus de l'interaction des rayons cosmiques dans l'atmosphère. C'est en 1998, en analysant les interactions des neutrinos atmosphériques que l'expérience japonaise SuperKamiokande mis en évidence de manière non ambiguë le phénomène d'oscillation des neutrinos.
  • Les neutrinos issus des accélérateurs de particules, qui permettent d'envoyer un faisceau de neutrinos bien défini spatialement, énergétiquement et temporellement vers des détecteurs situés à de longues distances.
  • Les neutrinos issus des réacteurs nucléaires, permettent de disposer de très grandes quantités d'antineutrinos électroniques issus des réactions de fissions à l'intérieur du cœur du réacteur.

Parmi les paramètres de la matrice PMNS, certains ont été relativement bien mesurés par les différentes expériences utilisant les sources de neutrinos présentées ci-dessus : 
  • les différences des carrés des masses sont bien connues, il reste toutefois à mesurer le signe de la différence pour le  n2 et le n3  (équivalente à la différence des carrés des masses du net du n3 ) pour déterminer si la hiérarchie de masse est naturelle ou inversée.
  • Les angles de mélanges Q12 et Q23 sont également relativement bien connus et il reste à déterminer l'angle Q13 qui rajoute une modulation rapide sur le signal principal d'oscillation.
La connaissance de Q13 est particulièrement importante pour compléter la compréhension du phénomène d'oscillation, une valeur trop faible ruinerait la possibilité de mesurer la phase CP de la matrice PMNS, sorte de Graal de la physique des neutrinos qui contient peut-être la clé pour comprendre l'asymétrie matière antimatière dans l'Univers.

Plusieurs expériences ont été conçues pour mesurer Q13 :
  • Double Chooz à proximité du réacteur nucléaire de Chooz dans les Ardennes.
  • T2K au Japon, est une expérience utilisant faisceau de neutrinos fabriqués au complexe d'accélérateur de Tokai et détectés dans la mine de Kamioka à 295 km de là.
  • RENO en Corée du Sud est également une expérience exploitant les antineutrinos provenant d'une centrale nucléaire.
  • Daya Bay en Chine, utilisant aussi les antineutrinos issus de réacteurs.
Il s'agit d'expériences dites de "disparition", c'est à dire qu'elles cherchent à mettre en évidence une diminution du flux de neutrinos en fonction de la distance à la source. Cette diminution du flux étant la manifestation du phénomène d'oscillation.
Double Chooz a publié récemment une première indication pour une valeur de  Q13 relativement grande, mais toutefois pas statistiquement incompatible avec zéro. C'est finalement Daya Bay qui a publié pour la première fois un résultat montrant sans ambiguïté que  Q13 est non nul : sin22 Q13 = 0.092 ± 0.016 (stat) ± 0.005 (sys) et plus grand que ce que l'on pensait.

Les physiciens chinois ont été extrêmement rapides pour concevoir, mettre en œuvre et exploiter cette expérience complexe et des moyens financiers très importants ont pour cela, été mobilisés. A mon sens ce résultat de premier ordre, marque un tournant dans la physique mondiale et montre que la physique expérimentale chinoise a pleinement atteint sa maturité.
L'un des éléments de détection de l'expérience Daya Bay
Extrait d'une présentation de Yifang Wang (IHEP Beijing)
La grande conférence annuelle mondiale sur les neutrinos aura lieu à Kyoto dans une semaine, nul doute qu'il y sera présenté de nouveaux résultats passionnants qui permettront d'avancer un peu plus dans la compréhension de cette famille de particules fascinantes qui étonne régulièrement les physiciens depuis que Wolfgang Pauli a postulé son existence en 1930.

jeudi 17 mai 2012

Adlène Hicheur - Libre !

Mardi 15 mai dans la soirée, Adlène Hicheur à été libéré. Il a choisi de ne pas faire appel, car la procédure l'aurait probablement maintenu en détention pendant de nombreux mois supplémentaires. Curieux choix qu'offre la justice, entre retrouver la liberté après 31 mois de détention ou bien "choisir" de rester en prison pour faire appel d'une décision injuste.

En tout cas, on voit bien que la peine prononcée était tout juste "calibrée" pour faire en sorte de couvrir une détention provisoire anormalement longue tout en permettant une libération quasi immédiate.

La libération d'Adlène Hicheur coïncide avec l'arrivée d'un nouveau gouvernement, d'un nouveau Ministre de l'Intérieur et d'un nouveau Garde des Sceaux. Faut-il y voir un signe ? Je le souhaite.

Bonne route Adlène !


Dominique Boutigny

samedi 5 mai 2012

Adlène Hicheur - Verdict !


Vendredi 4 mai un peu avant 13h30, pas mal de monde se groupait devant l'entrée de la 14ème chambre correctionnelle du palais de justice de Paris pour écouter l'énoncé du verdict du procès d'Adlène Hicheur. Beaucoup de journalistes étaient présents, un peu moins de monde toutefois du côté des comités de soutien que lors des audiences des 29 et 30 mars. On notait aussi la présence des "gars de Tarnac" qui, quelques jours avant, avaient justement cosignés  une tribune libre dans Le Monde intitulée "Non au délit de pré-terrorisme".

L'énoncé du verdict n'a duré que quelques minutes, la Présidente Rebeyrotte ne s'est pas donné la peine de parler dans le micro et a très rapidement marmonné qu'Adlène Hicheur était coupable du délit de "participation à une association de malfaiteurs en vue de la préparation d'un acte de terrorisme" et qu'en conséquence il était condamné à cinq ans d'emprisonnement dont un an avec sursis, qu'il était maintenu en détention et que l'ensemble des scellés seraient saisis (comprendre: confiscation du matériel informatique et des 15 000 € d'argent liquide trouvés au moment de l'arrestation). Après avoir expliqué en trente seconde ce que signifiait l'année de sursis sur le plan pénal, la Présidente a quitté très rapidement la salle d'audience. L'assistance s'est alors figée un instant, attendant que quelque chose se passe... certains ont demandé à leur voisin de répéter ce que la Présidente avait dit car ils n'avaient pas réussi à entendre son marmonage. L'un des membres du comité de soutien viennois  s'est offusqué à haute voix de cette façon de faire, de cette manière de balancer un verdict implacable qui va sceller l'avenir d'un homme, puis de repartir en rasant les murs… Tout le monde était debout, sonné et incrédule.

L'avocat a dû courir après la Présidente pour lui demander une autorisation pour qu'Adlène Hicheur puisse embrasser son père et ses frères, ce qui fut fait avant que les gendarmes ne reconduisent Adlène en cellule. Nous sommes restés de longues minutes à attendre que quelque chose se passe, à espérer au fond de nous-même que la Présidente revienne et dise que non, finalement il était acquitté… mais non bien sûr... le jugement était là, implacable, irrévocable (sauf appel) et incompréhensible.

Curieusement l'énoncé de ce verdict tranchait singulièrement avec celui de l'affaire précédente : 5 jeunes comparaissant pour une affaire de violence, le verdict fut énoncé de manière forte et claire, le Président s'assurant que l'interprète avait pu traduire et que les jeunes avaient bien compris. C'était un peu comme si le verdict de l'affaire Hicheur était tellement honteux, qu'il fallait juste le chuchoter et vite prendre la fuite...

Comme je l'ai dit dans l'article concernant les audiences des 29 et 30 mars, je n'ai rien entendu de convaincant dans l'énoncé des charges reprochées à Adlène Hicheur, en tout cas rien de prouvé, pas même l'identité de son interlocuteur sur les forums. Moi qui croyait que justement la justice ne s'appuyait que sur des faits, que le travail des enquêteurs consistait à amener des preuves et que toutes les assertions ne reposant pas sur des éléments établis étaient nulles et non avenues et enfin que le doute devait bénéficier à l'accusé. Je pense que si je n'avais pas assisté à ce procès, si je n'avais pas entendu de mes oreilles les élucubrations scabreuses basées sur  une série d'hypothèses non vérifiées afin de tailler un costume de coupable à Adlène Hicheur,  j'aurais eu au fond de moi un doute en me disant que la justice française ne pouvait pas condamner sans preuve ou sans au minimum quelques éléments solides permettant de se forger une intime conviction.

Aujourd'hui, je sais qu'il est possible d'arrêter quelqu'un en France, de lui faire subir 96 heures d'interrogatoire sans sommeil, alors que cette personne souffre physiquement et que le médecin lui prescrit des médicaments de plus en plus forts pour le faire tenir... Je sais aussi qu'il est possible de détenir quelqu'un pendant 30 mois sans qu'aucun élément sérieux ne justifie cette détention. Enfin, je sais qu'il est possible de construire un dossier uniquement à charge, de bourrer celui-ci d'éléments non prouvés, d'erreurs grossières, d'hypothèses scabreuses et finalement de faire condamner quelqu'un à des années de prisons.

Ce jugement je ne le comprends pas, je le comprends encore moins quand je lis le paragraphe suivant :

"Au cours des débats d'audience, Adlène HICHEUR a employé plusieurs fois le terme d'"humiliation" et l’on sent, à travers les messages de cet homme intelligent et fier, la douleur d’appartenir à un peuple qui a effectivement été colonisé pendant deux siècles par des représentants de son pays d’accueil et d’adoption ainsi que la difficulté à surmonter cette antinomie. Le Tribunal ne peut de même ignorer qu’Adlène Hicheur est né à Séfif, ville de triste mémoire, ce qui n’a pu que renforcer son sentiment d’injustice, d’humiliation devant le sort réservé à ses pères"

Cet argument qui sort de nulle part est présenté comme un élément à décharge valant l'année de sursis, alors  qu'au contraire il accable en tentant de donner une explication à un délit qui n'a jamais été démontré au cours du procès. Les juges se donnent ainsi probablement bonne conscience… Grand bien leur fasse !

Vous qui me lisez, prenez garde à vos écrits, prenez garde à vos courriels, et finalement prenez garde à vos pensées. Une justice d'exception a été instaurée en France et elle a tout pouvoir.

Dominique Boutigny

Liens:


samedi 31 mars 2012

Adlène Hicheur et les lois d'exception


Les 29 et 30 mars derniers avait lieu le procès d'Adlène Hicheur à la 14ème chambre correctionnelle de Paris. Je connais bien Adlène pour l'avoir côtoyé et même avoir partagé son bureau à Annecy pendant un an et demi alors qu'il terminait sa thèse de physique des particules portant sur l'expérience BaBar.

Adlène Hicheur était jugé pour "association de malfaiteurs en vue de préparer des actes terroristes". On lui reproche notamment d'avoir eu une activité sur Internet sur des forums islamistes radicaux et d'avoir échangé des messages mentionnant des projets  d'actes terroristes avec une personne identifiée par les enquêteurs comme étant un membre actif d'Al-Qaida au Maghreb Islamique (AQMI).  Il lui est également reproché d'avoir préparé et peut-être effectué des transferts de fonds visant à financer des activités terroristes.


Beaucoup de choses plus ou moins exactes ont été rapportées dans la presse, je n'y reviendrai pas dans cette note, il me semble par contre plus important d'exprimer mon ressenti personnel à l'issue de ces deux jours d'audience et de poser la question sur les limites de la justice et du droit d'un état à arrêter et juger quelqu'un sur la base de la conviction que celui-ci est sur le point de basculer dans le terrorisme actif.


C'était la première fois que je mettais les pieds dans un tribunal, l'atmosphère est curieuse, on sent tout de suite le côté suranné d'un lieu qui fait plus penser à un monument historique qu'à l'endroit où le futur des prévenus va se jouer, avec à la clé la liberté ou des années de détention. L'accueil est toutefois cordial; j'imaginais être embêté avec mon gros sac contenant mon ordinateur, mon iPad, mon téléphone, ma batterie de rechange, divers câbles informatiques, appareil photo et autres… Mais non ! rien ! juste des gendarmes aimables qui renseignent les gens perdus dans ce labyrinthe.

L'entrée de la salle d'audience était bloquée par une haie de journalistes, caméras, micros, etc. L'affaire Hicheur, dont peu de personne s'était inquiété pendant ses 30 mois (oui 30 !) de détention provisoire, était donc devenue médiatique suite à la coïncidence temporelle avec l'affaire Merah. La salle ne comptant qu'une cinquantaine de places, les  gendarmes filtraient l'entrée ; priorité aux journalistes et à la famille, puis aux comités de soutien. Là encore, j'ai vu des gendarmes courtois faisant de leur mieux pour placer le maximum de personnes dans la salle. Tout au long des deux jours d'audience, ça n'a d'ailleurs été que des allées et venues incessantes, les gens rentrant et sortant et se relayant sur des bancs au confort plutôt sommaire.

Une partie de l'assistance était constituée par le Comité Viennois de Soutien à Adlène Hicheur,  composé de la famille, des amis, des connaissances proches d'Adlène Hicheur. Franchement mesdames et messieurs les Viennois, durant ces deux jours, vous avez été impressionnants, on sentait la solidarité, la sympathie, le soutien sans faille derrière Adlène Hicheur et sa famille. Quelque chose de positif s'est dégagé de votre présence et je suis certain que cela aura une influence sur la décision des juges. 

Sur la forme :
Ce qui m'a le plus interpellé a été l'énorme décalage entre une affaire qui a pour cadre Internet, les forums et les technologies de l'information et l'incompétence de la Présidente en matière d'informatique. Par exemple, la Présidente a systématiquement prononcé Wahou à la place de Yahoo quand il s'agissait des adresses mails; elle parlera paraît-il aussi, car je n'avais pas réussi à décoder ce qu'elle disait, de fichiers "weuld" au lieu de Word. Ceci veut dire que cette dame ne manipule pas du tout l'informatique. Comment peut-elle se rendre compte si telle ou telle manipulation sur un ordinateur ou sur le net a un sens ou non ? Si l'on peut admettre qu'un juge n'ait pas cette compétence, il est par contre inadmissible de voir des erreurs du même genre dans le dossier d'instruction. Par exemple, il y a eu une confusion systématique entre des paiements par cartes de crédit via Paypal et l'utilisation de comptes Paypal. C'est tout de même grave ! Puisque l'accusation a tenté d'utiliser cela pour démontrer qu'il y avait eu des transferts de fonds à l'étranger via ce moyen.

De même, le dossier d'instruction indique que des fichiers étaient stockés et compressés dans un dossier avec "un système de cryptage particulièrement difficile à décoder". Traduction : il y avait des fichiers dans un dossier compressé avec Winrar et protégé par un mot de passe ! Ce point est d'ailleurs intéressant car un certain nombre de mails reprochés à Adlène Hicheur ont été encodés avec un logiciel de cryptographie (je n'ai pas réussi à comprendre lequel) et ont été apparemment décodés très vite. Il y a donc là un décalage avec la soit-disant difficulté de décoder un dossier Winrar ! Mon avis est que les mails ont été décodés par les services secrets américains (ce point a d'ailleurs été brièvement mentionné par l'un des avocats lors de l'audience), probablement avant l'arrestation d'Adlène Hicheur, ce qui laisse penser que les dits services secrets américains disposent de moyens considérables, ou bien qu'ils ont accès à des backdoors dans les logiciels de cryptage public. Mais est-ce vraiment une surprise ?

Dernier exemple : le dossier d'instruction ne fait pas de distinction entre des mails échangés et des traces de surf (je suppose des fichiers du cache du navigateur) retrouvés sur le disque dur !

Tout cela est hallucinant, peut-on vraiment penser que les enquêteurs soient ignares à ce point des techniques informatiques. Peut-on penser qu'un soit-disant terroriste ne prenne pas plus de précautions en utilisant des relais pour cacher ses connexions ou en utilisant un système d'exploitation virtuel pour effacer de son ordinateur toute trace de navigation. Adlène Hicheur avait sans conteste le bagage intellectuel pour mettre en œuvre ces parades s'il avait vraiment voulu se cacher.

Tout au long du procès, le décalage entre le monde Internet d'Adlène Hicheur et le monde paperassier de la justice a été particulièrement flagrant. L'accusation reproche par exemple à  Adlène Hicheur d'avoir fait des traductions au profit d'AQMI. Celui-ci répond qu'il y avait des reporters virtuels sur les forums et que ceux-ci traduisaient du matériel recueilli en divers endroits, dont des textes émanant d'AQMI… La notion de reporters virtuels est bien entendu un concept qui échappe à la Présidente...

Sur le fond :
Pour moi, toute la partie concernant le montage financier scabreux que la DCRI a tenté d'édifier  pour étayer le fait qu'il y avait bien eu passage à l'acte, ne tient pas une seconde. De même l'identification du pseudo Phoenix Shadow avec Mustapha Debchi, soit disant activiste d'AQMI, est bien faible. Je n'ai pas vu le moindre début de preuve et quand bien même Mustapha Debchi existerait, il est encore moins établi qu'Adlène Hicheur savait qui il était.

Que reste t-il donc de l'affaire ? Le contenu de quelques mails est clairement embarrassant, la teneur de certains propos laisse penser qu'il y a eu, à un moment au moins, une tentation de supporter l'action violente. Mais quelle est la limite entre le délit et la liberté de penser ? Particulièrement choquant à mon avis est le fait de revenir par trois fois au cours de l'audience sur le contenu d'un fichier contenant des propos très contestables (c'est mon avis) mais qui n'a jamais été envoyé. Ne peut-on admettre qu'un disque dur puisse contenir des documents de nature personnelle et destinés à alimenter sa propre réflexion ?
Dans la mesure où il n'y a pas passage à l'acte, chacun a le droit d'avoir ses pensées intimes, aussi violentes soient-elles. Ne peut-on considérer qu'un écrit personnel, un fichier, puisse être le prolongement de cet intime sans que cela ne soit répréhensible ?

De même, dans quelle mesure des échanges de mails peuvent-il être condamnés pénalement s'ils ne se concrétisent pas ? Est-il acceptable de maintenir quelqu'un en détention durant 30 mois sans jugement et sans qu'aucun fait nouveau ne vienne appuyer ce maintien en prison. Rappelons-le, dans cette affaire, il y a un seul prévenu et pas le début d'un commencement de preuve que quelque chose de concret ait jamais existé. Certes un état de droit doit se protéger du terrorisme, mais à quel prix ? Et surtout quelle est la limite ? Continuons un peu plus dans cette direction, et sous peu il deviendra répréhensible de critiquer l'ordre établi. Les lois d'exception que nous auront acceptées pour "notre bien" nous ferons alors sortir de cet état de droit que nous pensions justement protéger.

Le procureur a requis  6 ans de prison. Le jugement sera rendu le 4 mai.

Dominique Boutigny

Liens:



mercredi 28 mars 2012

Peter Higgs … dans ATLAS et CMS … avec le détecteur de muons …

Dans cette note, je vais tenter d'expliquer simplement comment les physicien(ne)s procèdent concrètement pour mettre en évidence une nouvelle particule telle que le bosonde Higgs à partir de l'enregistrement de milliards de collisions enregistrées dans des détecteurs géants tels que ceux qui sont installés sur le collisionneur LHC au CERN. Nous allons voir que cette recherche s'apparente une enquête minutieuse, digne du Cluedo, dans laquelle la collecte d'indices conduira à débusquer le suspect, même si ce dernier est bien caché.


Le premier élément à prendre en compte est qu'on ne cherche pas au hasard. Une particule, même inconnue doit suivre des lois précises. Par exemple nous ne sommes pas  certains que le boson de Higgs existe, mais s'il existe et qu'il est standard, son taux de production et ses modes de désintégrations sont parfaitement calculable dans le cadre d'une théorie (lemodèle standard de la physique des particules dans ce cas), le seul paramètre libre étant sa masse.  De même, dans les extensions du modèle standard telles que la Supersymétrie par exemple, il existe également des bosons de Higgs dont des caractéristiques sont connues.

Les détecteurs de particules ne peuvent pas détecter directement un Higgs, celui-ci a une durée de vie bien trop brève pour laisser la moindre trace directe. Par contre le Higgs  peut être produit conjointement avec d'autres particules et surtout il va se désintégrer de diverses façons en donnant des particules suffisamment stables pour pouvoir interagir avec les détecteurs.

Les grands détecteurs tels que ATLAS et CMS sont constitués d'un assemblage de sous-détecteurs spécialisés. Par exemple, nous allons trouver des détecteurs de traces chargées capable d'enregistrer l'ionisation engendrée par le passage d'une particule dans un milieu détecteurs (gaz ou silicium suivant les cas). Ces sous-détecteurs sont généralement placés à proximité du point de collision des faisceaux. Si de plus on associe un champ magnétique aux détecteurs de traces, il va être possible de distinguer les particules chargées positivement des particules chargées négativement. Le champ magnétique va également permettre de mesurer le rayon de courbure des traces  et ainsi d'estimer l'impulsion des particules.

En allant de l'intérieur du détecteur vers l'extérieur, après le sous-détecteur de traces, on trouve normalement des calorimètres, c’est-à-dire des appareils capables d'arrêter les particules incidentes et de mesurer l'énergie qu'elles déposent. En jouant sur l'épaisseur et sur le matériau qui le compose, le calorimètre pourra soit stopper et mesurer  des particules électromagnétiques peu pénétrantes (photons et électrons) soit des hadrons beaucoup plus pénétrants (pions, kaons, protons, neutrons…). On trouve donc généralement deux calorimètres, le premier électromagnétique et le second hadronique. Ceux-ci sont en principe segmentés afin de fournir une information sur la position de la particule lors de son impact.

À la sortie du calorimètre hadronique toutes les particules ont été arrêtées sauf les muons qui sont encore plus pénétrants et qui peuvent survivre à la traversé de deux mètres de fer. Quelques plans de détecteurs de traces supplémentaires permettront de localiser le passage de ces muons et de mesurer leur impulsion.

Avec tous ces sous-détecteurs, identifier une particule revient à faire un petit jeu de déduction :
  • La particule laisse une trace dans le détecteur de traces central, elle est donc chargée. Sa charge positive ou négative, est donnée par le sens de sa courbure dans le champ magnétique.
  • Elle interagit peu dans le calorimètre électromagnétique et laisse un gros dépôt d'énergie dans le calorimètre hadronique, c'est donc un hadron chargé. 
  • Si par contre la particule ne laisse aucune trace dans le détecteur central, mais dépose beaucoup d'énergie dans le calorimètre électromagnétique, il s'agit très probablement d'un photon.
  • Si la particule est chargée (trace dans le détecteur central), qu'elle traverse les deux calorimètres en laissant peu d'énergie et qu'elle est détectée dans les détecteurs de traces externes, c'est qu'il s'agit d'un muon.
Et ainsi de suite…

Il est même possible de détecter l'indétectable neutrino en utilisant le fait que l'énergie doit être conservée ; si le bilan énergétique  des particules détectées laisse un déficit dans une région du détecteur, cela veut dire qu'une particule n'interagissant pas ou très peu avec la matière est passée par là. Il peut s'agir d'un neutrino ou bien d'une particule plus exotique non encore découverte, telle l'hypothétique neutralino, (particule supersymétrique pouvant expliquer la matière noire).

Les informations des détecteurs ne sont pas directement exploitables, il s'agit généralement de signaux électriques (Volts, Ampères ou Coulombs) provenant d'une multitude de canaux de lecture, qu'il convient d'enregistrer, de corriger en appliquant des paramètres d'étalonnage et finalement de convertir en grandeurs physiques (quadrivecteurs énergie-impulsion). Ce traitement se fait via de grands centres informatiques distribués au niveau mondial qui s'échangent les données via des réseaux à très haut débit (c'est le concept de grille de calcul). Les quantités de données à traiter sont énormes ; par exemple le LHC produit environ 15 Pétaoctets de données par an, soit 15 millions de Gigaoctets !

La réponse des détecteurs au passage d'une particule n'est pas uniforme. Afin de corriger les biais instrumentaux, on procède à une  modélisation très détaillée des détecteurs en utilisant des techniques de simulation dites de Monte-Carlo. Le moindre élément des appareillages (matériaux détecteurs, supports mécaniques, boulons, etc.) est modélisé. Ce travail très consommateur de temps de calcul est indispensable afin d'appliquer des corrections aux mesures et de remonter aux processus physiques initiaux de façon non biaisée.

Une fois les collisions reconstruites et converties en un ensemble de données compréhensibles par le physicien de base,  celui-ci procède à des analyses dans le but d'essayer de mettre en évidence tel ou tel phénomène. Pour cela on dispose donc des caractéristiques des particules reconstruites (type, énergie, direction de vol), on peut regarder en détail la zone d'interaction et mettre en évidence des désintégrations secondaires (appelées vertex) signes de l'existence éphémère de particules de courtes durées de vie. On peut aussi identifier des jets de particules, signatures de la matérialisation de quarks ou de gluons.  On regarde encore les flux d'énergie dans les différentes zones du détecteur afin de détecter d'éventuels déséquilibres et ainsi de traquer les particules n'interagissant pas ou peu avec la matière.

En résumé lorsque l'on recherche un phénomène, on essaye de mettre en évidence une topologie particulière. Par exemple, comme illustrée par l'image ci-dessous,l'une des signatures du Higgs est l'émission de quatre muons de grandes impulsions. On cherchera donc quatre traces dans les détecteurs externes.   Il s'agit là d'une signature particulièrement simple. Malheureusement la probabilité (on dit section efficace en physique des particules) est bien trop faible pour que le physicien s'en contente et il faut rechercher d'autres topologies plus complexes telles que le Higgs se désintégrant en deux photons ou encore en une paire de W, ceux-ci donnant deux leptons (électrons ou muons) et deux neutrinos indétectés.
Une collision proton-proton enregistrée dans le détecteur CMS au CERN et présentant toutes les caractéristiques de la désintégration d'un bosonsde Higgs mais pouvant tout aussi bien être due à du bruit de fond.  Source : CERN - CMS.
Chacun des signaux recherchés est dilué dans un bruit de fond plus ou moins important. Par exemple pour le Higgs en deux photons, il existe des quantités de phénomènes physiques qui engendrent des photons, la combinaison de tout ceux-ci va donc donner un bruit de fond combinatoire duquel aura bien du mal à émerger un signal.

Le travail du physicien analyste consiste dans un premier temps à trouver un ensemble de critères permettant de maximiser le signal recherché et de minimiser le bruit de fond. Ce travail d'optimisation se fait généralement en utilisant massivement des logiciels de simulation. Les collisions sont ensuite triées pour sélectionner celles qui ressemblent le plus à la topologie recherchée. À partir des collisions sélectionnées on tente alors de mettre en évidence le signal à l'aide de méthodes statistiques sophistiquées qui tirent parti de toutes les informations disponibles en combinant au besoin plusieurs modes de production ou de désintégration de la particule recherchée. C'est ainsi que l'on aboutit à des graphiques du genre de ceux qui ont été montrés par les collaborations ATLAS et CMS à la fin de l'année 2011 et qui semblent indiquer un excès de signal dans une région de masse de Higgs autour de 125 GeV.

La courbe en pointillée représente la mesure attendue avec une physique standard et en l'absence d'un signal de Higgs. Les bandes  verte et jaune indiquent les zones s'écartant de respectivement un et deux écarts standards de la prédiction et les points correspondent aux données. Toute la région se trouvant en dessous du trait horizontal pointillé, correspond à la zone de sensibilité à un éventuel signal de Higgs. L'excès observé par ATLAS et vu indépendamment par CMS est le petit intervalle dans la zone de sensibilité pour lequel les points de mesure sont au dessus de la bande jaune. Il est clair qu'avec de tels graphes statistiques, on perd aisément le sens physique de la mesure, mais c'est le prix à payer pour tirer le maximum d'information des données.
Résultat présenté par la collaboration ATLAS le 13/12/2011 au CERN et montrant une déviation non encore statistiquement significative dans la région de masse autour de 125 GeV