samedi 6 février 2010

LHC (2)

La panne majeure survenue peu de temps après la mise en service du LHC en 2008 et la façon dont elle est traitée mérite que l'on s'y attarde, car elle illustre bien ce qu'est la recherche de pointe dans un domaine hautement technologique.

Il faut bien comprendre que la mise en service d'une machine de cette complexité ne se fait pas en pressant un simple bouton, et surtout que celle-ci n'atteint pas ses performances nominales du jour au lendemain. On commence par injecter un seul paquet de particules à la fois (des protons pour le LHC)  et on fait progresser ceux-ci, secteur de machine par secteur de machine. Durant ces opérations, des systèmes sophistiqués permettent de contrôler le comportement des particules et le fonctionnement de la machine. Les multiples paramètres sont petit à petit ajustés afin d'améliorer la qualité des faisceaux. Parallèlement, les systèmes de sécurité sont testés de façon à être sûr de pouvoir détecter les problèmes et contrôler les éventuelles pertes de faisceau. En cas de défaillance d'un aimant, il ne s'agit pas que le faisceau parte n'importe où et endommage la machine où les détecteurs. Un faisceau de particules énergétique a en effet la capacité de percer le tube à vide dans lequel il circule et même de faire fondre les équipements qu'il toucherait.  Les premiers paquets de particules ne sont pas accélérés, ils sont juste guidés dans la machine.

Les tout premiers faisceaux ont circulés dans le LHC le 10 septembre 2008. Une fois les premiers réglages effectués, il a été décidé de commencer à accélérer les faisceaux, ce qui implique d'augmenter le courant dans les aimants supraconducteurs afin de guider ces particules plus énergétiques. Le 19 septembre, lors d'un test à 5 TeV, une panne majeure est survenue entrainant une rupture du tube à vide,  et une fuite très importante d'Hélium liquide aussitôt vaporisé dans le tunnel de l'accélérateur. Les dégâts ont été considérables et des aimants de plusieurs tonnes ont été arrachés de leur support.

Pour comprendre ce qui s'est passé, il faut savoir que l'ensemble de la machine est supraconductrice, c'est-à-dire que l'électricité circule dans les aimants refroidis à très basse température sans résistance électrique. Il arrive dans de tels systèmes que sous l'effet d'un défaut, une petite zone d'un câble bascule de l'état supraconducteur à l'état conducteur. Le défaut se propage alors, et tout un aimant peut brutalement redevenir conducteur, c'est ce qu'on appelle un "quench". Le courant  se retrouve à circuler dans un système résistif qu'il fait donc chauffer comme une vulgaire résistance. Ceci serait sans conséquence avec un courant faible. Le problème est que dans le LHC le courant atteint des milliers d'Ampères, ce qui correspond à une énergie énorme qui doit s'évacuer. Ce phénomène est bien connu des spécialistes de la supraconductivité, et des systèmes sont prévus afin de guider le courant à la terre en cas de "quench". Pour le LHC c'est la jonction entre la partie supraconductrice et ce système de mise à la terre qui a été mal réalisée. Le courant ne pouvant s'évacuer, a littéralement fait fondre les conducteurs.

Après une période d'investigation, afin de comprendre l'origine de l'incident, des équipes entières d'ingénieurs ont travaillé d'arrache pieds pour: nettoyer les dégâts (une grosse quantité de suie a été trouvé dans le tube à vide), remettre en état la portion de la machine endommagée, mettre au point des techniques de mesures afin de repérer les autres points faibles du même type, concevoir et installer des systèmes de protection afin qu'un incident similaire ait des conséquences moins fâcheuses, élaborer une stratégie de réparation, etc. Le tout avec un accélérateur de 27 km de circonférence et comptant environ 6000 aimants. C'est un véritable travail de titans qui a été entrepris afin de redonner aux physiciens une machine utilisable à l'automne 2009.

Malheureusement le problème de connexion ne peut être totalement résolu et l'ensemble de la machine doit être revu et modifié. En attendant, les mesures montrent que le LHC peut fonctionner avec un risque minime à une énergie de 3.5 TeV par faisceau. La stratégie choisie collégialement lors d'un atelier qui a eu lieu à Chamonix fin janvier et entérinée par le Directeur Général du CERN, est de faire fonctionner le LHC à 3.5 TeV par faisceau en 2010 et 2011 jusqu'à ce qu'un  nombre donné de collisions soit enregistrée par les détecteurs. La machine s'arrêtera alors en 2012 pour un changement complet des pièces mal conçues et ce n'est qu'à partir de 2013 que l'énergie nominale de 7 TeV par faisceau sera atteinte.

Le LHC est une machine d'une complexité extrême, c'est une machine unique.  Le problème aurait probablement pu être évité par une meilleure conception et une meilleure vérification des jonctions électriques, mais on ne peut certainement pas critiquer ceux qui ont conçu cet accélérateur, qui ont résolu des milliers de problèmes et sont passés outres toutes les difficultés techniques… sauf une…

Quant au boson de Higgs, il restera très probablement caché encore quelques années, mais les physiciens ne seront pas au chômage pour autant, des tas d'autres recherches pourront être effectuées sur les données accumulées en 2010 et 2011 et je suis absolument certain que l'imagination fertile de mes collègues fera des miracles afin d'en extraire toute la connaissance possible.

Photo - Copyright CERN

3 commentaires:

  1. Qu'est ce que peut apporter un projet comme une station spatiale sur la lune afin de servir de base de lancement pour Mars ? et bien, exactement la meme chose que ce que le LHC est : des idees à profusions pour faire fonctionner une machine qui semble folle, de la recherche à profusion. Tout ca pour en arriver à une machine... les avancées les plus folles ne sont pas celles données par la machine mais pour la mise au point de cet instrument ? (les deux doivent probablement aller ensemble).

    je suis convaincu que les grands projets scientifiques apportent autant de connaissances lors de leur conception/fabrication que lors de leurs phase de résultat.

    RépondreSupprimer
  2. un projet comme celui ci a de la gueule, ca envoie du lourd, les idées les plus folles (j'ai pas dit farfelues) sont concrétisées, on met des experts à travailler ensemble pour un but qui est bien plus vaste qu'un retour sur investissement... Donc ca me plait !!!

    RépondreSupprimer
  3. Oui, les "grands projets scientifiques apportent autant de connaissances lors de leur conception/fabrication que lors de leurs phase de résultat", c'est pour cela que ça n'a pas beaucoup de sens de séparer recherche fondamentale et recherche appliquée. Ceci dit les connaissances acquises ne sont pas du même ordre. D'un côté, l'apport est essentiellement technologique, de l'autre il est lié à l'avancée des frontières de la connaissance.

    RépondreSupprimer