samedi 19 novembre 2011

Neutrinos véloces - suite


Il y a un peu moins de deux mois, la collaboration OPERA soumettait à la critique de la communauté de physique une mesure du temps de propagation des neutrinos entre le CERN et le laboratoire souterrain du Gran Sasso dans les Abruzzes en Italie, soit une distance d'environ 730 km. Le résultat annoncé est très surprenant puisqu'il indique que les neutrinos arrivent environ 60 nanosecondes (ns) plus tôt que s'ils voyageaient à la vitesse de la lumière dans le vide. Depuis, de nombreuses contributions ont été apportées par les physiciens pour tenter d'expliquer le résultat ou bien pour pointer une possible source d'erreur. Pour l'instant aucune faille dans la procédure de mesure n'a pu être mise en évidence.

L'un des points délicats de la mesure concerne la structure temporelle du faisceau de neutrinos. En effet, les neutrinos sont produits lors de la désintégration de pions ou de kaons, eux même issus de l'interaction d'un faisceau de proton sur une cible. Le faisceau de protons initial est pulsé, chaque bouffée de protons s'étalant sur un intervalle de 10.5 microsecondes. A l'intérieur de cet intervalle, la densité de proton n'est pas uniforme et possède une structure formant cinq pics.

Lorsqu'un neutrinos est détecté dans OPERA, il est facile d'identifier à quel pulse de proton il appartient mais il est impossible de savoir à quel moment du pulse de 10.5 microsecondes il a été engendré. On comprend donc la difficulté de la mesure puisqu'il faut mesurer le temps de propagation des neutrinos avec une précisions de quelques nanosecondes alors que l'instant d'émission du neutrino peut se trouver n'importe où dans une fenêtre de 10.5 microsecondes. La collaboration OPERA s'en sort grâce à la statistique ; en effet, si l'on observe un grand nombre de neutrinos dans le détecteur OPERA on doit retrouver la structure en temps du faisceau de proton, c’est-à-dire la forme du pulse de 10,5 microsecondes. Les physiciens mesure donc  le temps d'arrivé des neutrinos, par rapport à un signal temporel parfaitement calé sur le début du pulse de protons. La distribution en temps des neutrinos enregistrée sur une longue période est ensuite ajustée par rapport à la forme des pulses de protons.

On comprend aisément que cette procédure complexe ait été pointée comme une possible source d'erreurs. On peut en effet imaginer des effets subtils qui modifient la forme effective des bouffées de neutrinos, comme par exemple un échauffement de la cible qui modifie la géométrie de celle-ci au cours des 10.5 microsecondes d'exposition au faisceau de protons.

Structure temporelle du faisceau de protons utilisé
pour refaire la mesure du temps de propagation des

neutrinos (source : http://tinyurl.com/c7af9oj )
Afin d'éclaircir ce point, le CERN a mis au point un faisceau de neutrinos avec une structure temporelle totalement différente. Dans celle-ci les protons forment des pulses de 3 nanosecondes de large et espacés de 524 nanosecondes. Il est alors possible de mesurer précisément le temps de propagation de chaque neutrino détecté au Gran Sasso puisque l'incertitude sur son temps d'émission n'est que de quelques nanosecondes. Pour des raisons techniques, un tel faisceau est environ 60 fois moins intense que le faisceau initial possédant une structure en pulse de 10.5 microsecondes, mais le fait que le temps de propagation de chaque neutrino puisse être mesuré permet de se satisfaire d'une statistique bien plus faible que lors de la première mesure.

En deux semaines de prise de données, OPERA a pu identifier et mesurer 20 interactions de neutrinos qui confirment parfaitement le premier résultat. La mesure obtenue correspond à une avance des neutrinos par rapport au temps prédit pour une propagation à la vitesse de la lumière dans le vide de 62.1 nanosecondes avec une incertitude de 3.7 nanosecondes.

Le mystère reste donc entier et à ce jour il n'y a aucune explication à ce phénomène. L'annonce d'une découverte aussi fondamentale nécessitera une confirmation de la part d'une expérience indépendante. La collaboration MINOS aux États-Unis est parait-il en train de préparer une mesure, mais il faudra être patient car une telle étude nécessite une compréhension totale des conditions expérimentales.

mardi 8 novembre 2011

Les coulisses des grandes expériences de physique des particules (1)


La physique des particules ou physique des hautes énergies met en œuvre des appareillages géants, probablement les plus complexes et les plus sophistiqués qui puissent être conçus. Cette complexité vaut à la physique des particules d'être classée sous l'appellation un peu réductrice de "big science" et d'être parfois dénigrée par certains chercheurs qui considèrent que le gigantisme expérimental tue le sens physique. Bien que ce jugement de valeur n'ait à mon avis pas beaucoup de sens et traduise une méconnaissance de la réalité, il faut reconnaitre que cette "big science" s'accompagne d'une méthodologie et d'une sociologie bien particulière. Il faut en effet mettre en place une organisation sans faille pour mener à bien de tels projets, impliquant de très nombreuses personnes d'origines diverses et des budgets conséquents. 

Cette note et la (ou les) suivante(s) présenteront quelques aspects de ces grandes expériences.

Comme mis en avant par le laboratoire Fermi aux États-Unis, les expériences sur les accélérateurs de particules visent en principe à repousser deux types de frontières :
  • La frontière de l'énergie, où il s'agit de pousser l'énergie de collision au maximum afin d'explorer des domaines d'énergies correspondant à des phénomènes ayant eu lieu dans l'Univers à des périodes proches du Big-Bang.
  • La frontière de l'intensité, où il s'agit pour un domaine d'énergie donnée - situé en deçà de la frontière en énergie - pousser l'intensité des faisceaux au maximum de manière à obtenir le plus grand nombre possibles de collisions et ainsi de mettre en évidence des phénomènes très rares.
L'histoire de la physique des particules et de ses découvertes est une succession d'avancées au niveau de ces deux frontières.

Lorsque l'on veut construire un accélérateur, se pose la question du choix de la particule à accélérer. On ne dispose actuellement que de deux choix pratiques : le proton et l'électron, chacun associé à leur antiparticule. Dans les accélérateurs circulaires, les particules perdent une partie de leur énergie par rayonnement synchrotron proportionnellement à leur énergie et à l'inverse de la puissance quatrième de leur masse. L'électron étant environ 2000 fois moins massif que le proton, à énergie égale, celui-ci va rayonner 16 000 milliards de fois plus ! A chaque tour d'accélérateur, il faudra donc compenser cette perte en communiquant une énergie encore plus grande. On comprend donc qu'il est plus intéressant d'accélérer des protons lorsqu'on veut repousser la frontière de l'énergie.

Malheureusement les protons ont le gros désavantage de ne pas être élémentaires. Les protons sont des objets complexes constitués de quarks et de gluons qui possèdent leur dynamique propre à l'intérieur du proton. À grande énergie, une collision proton-proton ou proton-antiproton est en fait une interaction entre les quarks et/ou les gluons. L'énergie totale disponible se distribue entre les constituants du proton et l'énergie utile lors de la collision est divisée par environ 6 (le nombre de quarks constituant les deux protons). D'autre part, le produit de la collision est complexe et les effets intéressants du point de vue de la physique sont dilués dans "soupe" de particules de basse énergie qui brouillent le résultat. Cette "soupe" provient des interactions "molles" des autres constituants élémentaires des protons.

Les machines à protons comme le Tevatron aux États-Unis ou le LHC au CERN sont typiquement des machines de découvertes. En poussant l'énergie des collisions, les physiciens explorent des territoires inconnus. C'est avec ce type de machine que la chasse au boson de Higgs ou aux particules supersymétriques s'effectue.

À l'inverse, les électrons sont des particules élémentaires, l'état initial lors de la collision est parfaitement connu, de même que l'énergie disponible. Cette énergie est d'ailleurs ajustable très finement ce qui permet d'explorer un domaine d'énergie spécifique. Les machines à électrons sont typiquement des outils pour l'étude de précise de certains phénomènes.  Le LEP a ainsi été qualifié de machine de métrologie pour les particules Z et W.

Bien souvent la découverte d'un nouveau mécanisme a lieu sur un collisionneur de proton et son étude est faite sur une machine à électrons. Ainsi, la découverte des bosons W et Z, médiateurs de la force électrofaible, a eu lieu en 1983 sur le SppS (Super proton antiproton Synchrotron) au CERN. Ces deux particules ont ensuite été étudiées en détails sur le LEP (Large Electron Positron collider). Il en sera sans doute de même pour le Higgs, qui s'il est découvert avec le LHC, sera produit abondamment et mesuré avec le futur collisionneur linéaire d'électrons.

La luminosité est une grandeur caractéristique des collisionneurs qui mesure leur capacité à produire des collisions exploitables pour la physique. Lorsque l'on pousse la luminosité à des valeurs extrêmes, les collisionneurs deviennent de véritables "usines" à particules et on les désigne de la sorte. Les machines PEPII au SLAC en Californie et KEKB au Japon ont ainsi été des usines produisant des mésons B (particule constituée d'un quark b et d'un autre quark léger) qui ont permis d'étudier en détail les asymétries entre matière et antimatière (violation de la symétrie CP). Les usines permettent également d'accumuler des statistiques considérables et ainsi de mettre en évidence des phénomènes très rares pouvant révéler l'existence d'une nouvelle physique.

La mise en œuvre d'un nouveau programme de recherche en physique des particules commence donc la plupart du temps par la conception d'une machine adaptée (ou la réutilisation d'une machine existante, si les caractéristiques de celle-ci le permettent).  

À suivre...