jeudi 25 février 2010

Et mon CNRS alors ?

J'ai découvert récemment avec une certaine naïveté candide l'ampleur de la réforme actuelle du système de recherche. Ayant vu le CNRS traverser sans trop de dégâts bien des crises dans lesquelles il était supposé s'affaiblir et plier aux injonction du pouvoir, je pensais que cette fois encore il ressortirait sans trop de dommage des réformes récentes. La création des 10 Instituts ayant vocation à devenir Instituts Nationaux semblait avoir préservé l'essentiel, c'est-à-dire la capacité pour le CNRS d'être un opérateur majeur de la science et non pas une simple agence de moyen.

Vu la situation de délabrement des universités française, il est évident qu'on ne peut que se féliciter de l'effort financier consenti par le gouvernement afin de rénover les campus et de donner les moyens aux universités de vivre et de développer des recherches de pointe tout en assurant des enseignements de qualité.

J'ai été estomaqué des sommes et de la stratégie mises en jeu. Dans le cadre du grand emprunt national, entre 5 et 10 "campus d'excellence" vont se voir attribuer 1 milliard d'euros chacun ! Ce milliard ne sera pas directement utilisable puisqu'il arrivera sous la forme d'un capital, qui une fois placé, rapportera au minimum 50 à 60 M€ / an et qui pourra servir à garantir des emprunts que feraient les universités concernées. Après la loi relative à l'autonomie des universités, on voit bien le modèle qui se met en place: de très grandes universités autonomes sur leur mode de fonctionnement et en grande partie sur leur financement. Dans peu de temps, nous verrons une augmentation très importante des droits d'inscription et nous serons alors très proches du modèle américain. Ce n'est pas ma conception de l'université, je pense qu'il y avait d'autres modèles viables à développer, mais bon … après tout pourquoi pas ? L'important est avant tout de sortir les universités du marasme.

Dans l'unification des grands "campus d'excellence", il est clair que les grandes écoles vont devoir d'une manière ou d'une autre se joindre aux universités. Ceci est une bonne chose. Le modèle super élitiste français a littéralement pompé les bons étudiants qui auraient pu tirer les universités vers le haut,  afin d'alimenter le circuit des grandes écoles, qui certes, produisent d'excellents chercheurs mais qui ont tout de même tendance à formater les cerveaux. L'esprit de castes n'améliore en rien la situation: les X avec les X, les Normale Sup avec les Normale Sup…  je ne veux voir qu'une tête… En tout cas, les problèmes de mise en place des gouvernances des grands campus promettent d'être particulièrement ardus à résoudre.

Là où les choses se compliquent c'est que le CNRS est complètement tenu à l'écart du processus et que le rôle de celui-ci dans les "campus d'excellence" est loin d'être clair. Je ne vois pas non plus comment les négociations actuelles en vu de mettre en place une gestion unique des unités mixtes CNRS / universités pourraient ne pas affaiblir le CNRS.

En parallèle et au niveau national, de grandes alliances scientifiques sont en cours de création: alliance environnement, santé, numérique, sciences humaines, etc… elles ont normalement pour vocation de réunir les grands acteurs des disciplines concernées (INSERM, INRIA, CEA, etc…) et sont de fait directement en concurrence avec les instituts du CNRS.

Les universités vont donc avoir la puissance financière et les alliances la puissance politique, que restera t'il alors au CNRS ? Il suffira d'étouffer petit à petit les meilleurs laboratoires pour assécher le CNRS, le coup de grâce viendra avec la perte de la gestion du personnel qui passera aux universités. 

Je ne critique en aucun cas les moyens donnés aux universités, mais n'y avait-il pas moyen d'intégrer le CNRS dans le processus, plutôt que de casser ce qui marche ?

samedi 20 février 2010

La place de l'imaginaire dans la science

Les grandes avancées scientifiques sont très souvent dues à des êtres ayant été capables d'aller chercher des idées complètement nouvelle dans leur imaginaire. Il est intéressant de constater que les théories physiques récentes bouleversent totalement notre vision du monde en apportant des concepts non intuitifs voire même contre intuitifs. Il est par exemple impossible de se représenter fidèlement les objets du monde quantique, l'image d'électrons sous forme de petites boules orbitant autour d'un noyau, lui-même en forme de boule est totalement fausse et trompeuse. Comment se représenter quelque chose qui n'a ni une forme, ni une localisation précise et alors même que le fait de l'observer avec précision n'a pas de sens puisque l'observation elle-même va modifier le comportement de la chose étudiée ?

Un autre exemple est la théorie de la relativité restreinte. Celle-ci repose sur 2 principes:

  • Le principe de relativité déjà énoncé par Galilée et qui stipule que les lois de la physique sont indépendantes du référentiel inertiel (c'est-à-dire qui n'est  soumis à aucune force). Par exemple la chute d'un corps est décrite par les mêmes équations, que l'on fasse l'expérience sur le bord d'une voie ferrée ou à l'intérieur d'un train animé d'une vitesse constante par rapport à un observateur resté sur le bord de la voie.
  • Le principe selon lequel la vitesse de la lumière est constante et indépendante du référentiel inertiel. Cela veut dire que si une source de lumière est attachée à un référentiel en mouvement par rapport à un l'observateur, celui-ci mesurera toujours une même vitesse de la lumière indépendamment de la vitesse de déplacement de la source.

    De là découle toute la théorie de la relativité restreinte, y compris la dilatation du temps, la contraction des longueurs et le fait qu'espace et temps sont indissociables.

    Il fallait tout de même un formidable culot pour ne pas jeter immédiatement à la poubelle une théorie qui remettait en cause le caractère absolu du temps.  Je me demande quel était l'état d'esprit d'Einstein lorsqu'il a réalisé les implications de sa théorie ? Par quel cheminement est-il passé, pour avoir l'intuition que la vitesse de la lumière dans le vide était une constante fondamentale ? Il est vrai qu'il disposait du résultat des expériences de Michelson et Morley qui démontraient la non existence d'un repère absolu dans l'espace, et des équations de Maxwell qui contiennent la notion d'onde électromagnétique se propageant à une vitesse finie. Mais tout de même... quelle vision ! Je pense que ce genre d'avancée est liée à une capacité hors du commun pour construire des représentations abstraites à partir d'un imaginaire fécond.

    Dirac, de son côté, était convaincu qu'une théorie devait être élégante. On lui prête d'avoir dit qu'un résultat était trop beau pour être faux et que le fait qu'une équation soit belle était plus important que sa capacité à reproduire une mesure.  D'ailleurs sa célèbre équation dont les solutions d'énergies négatives ont été associées à l'anti-électron (ou positon) est d'une très grande élégance, tant du point de vue de la physique qu'elle contient que de sa transcription mathématique.


    vendredi 12 février 2010

    Science et lobbies

    Historiquement la science a souvent été l'apanage d'une certaine élite de la société. La science était l'affaire de penseurs qui élaboraient une certaine vision du monde que finalement peu de personnes pouvaient comprendre. Du temps des grecs je doute que l'homme ou la femme de la rue se préoccupait des réflexions scientifico-philosophiques des penseurs. Avec la révolution technologique, la science est devenue de plus en plus populaire puisqu'elle était directement à la source de l'innovation. Durant la seconde guerre mondiale, les politiques ont fait appel aux scientifiques pour la mise au point de l'arme nucléaire avec le projet Manhattan. Ce fut là je pense la première implication directe des scientifiques dans un projet d'envergure commandité par le monde politique. Depuis, science,  politique et société, ont vu leurs interactions se développer sans cesse.

    Au cours du 20ème siècle la science s'est démocratisée et c'est tant mieux. L'émergence du web a permis à toute une communauté d'amateurs de sciences d'échanger des idées et de commenter les avancées scientifiques au travers de forums. C'est certainement une très bonne chose en soit, mais malheureusement le système éducatif n'a pas suivi et n'a pas fourni les clés nécessaires pour que chaque citoyen puisse se faire une opinion sur les grandes questions scientifiques en se basant sur une véritable démarche scientifique. La critique citoyenne devient dès lors extrêmement sensible à la puissance des lobbies qui peuvent la manipuler facilement afin d'influer sur les décisions politiques.

    Un résultat scientifique est très souvent le travail de toute une communauté, il repose sur de multiples analyses, sur une multitude de confrontations entre théories et expériences. Les débats d'idées, parfois conflictuels, sont à la base de la qualité des consensus qui en émergeront. Et encore, les résultats admis ne sont là que pour être battus en brèche par de nouvelles expériences ou par de nouvelles idées. La science bouge par nature, elle n'est en rien immuable et la vérité scientifique n'a de sens qu'à un instant donné. Le public comprend mal cela, pour lui, les choses sont ou ne sont pas, il a du mal à admettre qu'un résultat bien établi  soit remis en cause. A cela il faut ajouter un certain goût pour le sensationnel et le plaisir de voir certains soutenir les thèses les plus farfelues à l'encontre du plus élémentaire bon sens. Il y a une certaine jouissance à imaginer qu'un Einstein ait pu se tromper, que la théorie de la relativité soit fausse ou encore que le big-bang ne soit qu'une vue de l'esprit. Pour aller dans ce sens, on est prêt à sacrifier à la plus élémentaire démarche scientifique et à gober tout cru les fables des opportunistes.

    Le cas du GIEC est particulièrement intéressant à ce sujet. Il est clair que de très gros intérêts financiers n'ont rien à gagner sur le court terme avec une baisse des émissions de CO2. Certains auraient même intérêt à ce qu'un réchauffement climatique fasse fondre une partie de la banquise afin de libérer des passages pour les bateaux et de rendre accessible des zones de recherche de matières premières. On a là tous les éléments pour que se mettent en place des lobbies dont le but est de retarder le plus possible les actions visant à diminuer la consommation énergétique.  Les nombreuses équipes scientifiques du GIEC font actuellement les frais de ces campagnes de pressions. Étant donné ce qui a été dit plus haut, on voit bien qu'il est très simple de prendre un résultat, si possible douteux, de le retirer de son contexte et de le pointer du doigt en expliquant que s'il y a un doute, ou pire si ce résultat particulier est faux, c'est que tout ces scientifiques ne sont que des incapables, que tout leurs travaux sont à jeter et donc que l'origine humaine du réchauffement climatique est une vue de l'esprit.

    Cette entreprise systématique de démolition du travail du GIEC est malheureusement très efficace, car les scientifiques sont complètement démunis. La seule façon de répondre serait d'utiliser les mêmes techniques, d'aller pirater les mails des anti-réchauffements, de sortir quelques arguments de leur contexte et d'inonder les forums et débats publics… mais les scientifiques ne savent pas bien faire cela, ils répondent généralement en apportant de nouveaux résultats étayant leurs thèses, qu'il sera de nouveau très simple de réfuter par le même type d'arguments fallacieux.

    Et pourtant… lorsqu'on interroge les français sur la confiance qu'ils ont dans les institutions, ceux-ci déclarent à 90% avoir une totale confiance dans le CNRS, alors qu'ils ne sont que 27% à faire confiance aux médias. Allez comprendre...

    samedi 6 février 2010

    LHC (2)

    La panne majeure survenue peu de temps après la mise en service du LHC en 2008 et la façon dont elle est traitée mérite que l'on s'y attarde, car elle illustre bien ce qu'est la recherche de pointe dans un domaine hautement technologique.

    Il faut bien comprendre que la mise en service d'une machine de cette complexité ne se fait pas en pressant un simple bouton, et surtout que celle-ci n'atteint pas ses performances nominales du jour au lendemain. On commence par injecter un seul paquet de particules à la fois (des protons pour le LHC)  et on fait progresser ceux-ci, secteur de machine par secteur de machine. Durant ces opérations, des systèmes sophistiqués permettent de contrôler le comportement des particules et le fonctionnement de la machine. Les multiples paramètres sont petit à petit ajustés afin d'améliorer la qualité des faisceaux. Parallèlement, les systèmes de sécurité sont testés de façon à être sûr de pouvoir détecter les problèmes et contrôler les éventuelles pertes de faisceau. En cas de défaillance d'un aimant, il ne s'agit pas que le faisceau parte n'importe où et endommage la machine où les détecteurs. Un faisceau de particules énergétique a en effet la capacité de percer le tube à vide dans lequel il circule et même de faire fondre les équipements qu'il toucherait.  Les premiers paquets de particules ne sont pas accélérés, ils sont juste guidés dans la machine.

    Les tout premiers faisceaux ont circulés dans le LHC le 10 septembre 2008. Une fois les premiers réglages effectués, il a été décidé de commencer à accélérer les faisceaux, ce qui implique d'augmenter le courant dans les aimants supraconducteurs afin de guider ces particules plus énergétiques. Le 19 septembre, lors d'un test à 5 TeV, une panne majeure est survenue entrainant une rupture du tube à vide,  et une fuite très importante d'Hélium liquide aussitôt vaporisé dans le tunnel de l'accélérateur. Les dégâts ont été considérables et des aimants de plusieurs tonnes ont été arrachés de leur support.

    Pour comprendre ce qui s'est passé, il faut savoir que l'ensemble de la machine est supraconductrice, c'est-à-dire que l'électricité circule dans les aimants refroidis à très basse température sans résistance électrique. Il arrive dans de tels systèmes que sous l'effet d'un défaut, une petite zone d'un câble bascule de l'état supraconducteur à l'état conducteur. Le défaut se propage alors, et tout un aimant peut brutalement redevenir conducteur, c'est ce qu'on appelle un "quench". Le courant  se retrouve à circuler dans un système résistif qu'il fait donc chauffer comme une vulgaire résistance. Ceci serait sans conséquence avec un courant faible. Le problème est que dans le LHC le courant atteint des milliers d'Ampères, ce qui correspond à une énergie énorme qui doit s'évacuer. Ce phénomène est bien connu des spécialistes de la supraconductivité, et des systèmes sont prévus afin de guider le courant à la terre en cas de "quench". Pour le LHC c'est la jonction entre la partie supraconductrice et ce système de mise à la terre qui a été mal réalisée. Le courant ne pouvant s'évacuer, a littéralement fait fondre les conducteurs.

    Après une période d'investigation, afin de comprendre l'origine de l'incident, des équipes entières d'ingénieurs ont travaillé d'arrache pieds pour: nettoyer les dégâts (une grosse quantité de suie a été trouvé dans le tube à vide), remettre en état la portion de la machine endommagée, mettre au point des techniques de mesures afin de repérer les autres points faibles du même type, concevoir et installer des systèmes de protection afin qu'un incident similaire ait des conséquences moins fâcheuses, élaborer une stratégie de réparation, etc. Le tout avec un accélérateur de 27 km de circonférence et comptant environ 6000 aimants. C'est un véritable travail de titans qui a été entrepris afin de redonner aux physiciens une machine utilisable à l'automne 2009.

    Malheureusement le problème de connexion ne peut être totalement résolu et l'ensemble de la machine doit être revu et modifié. En attendant, les mesures montrent que le LHC peut fonctionner avec un risque minime à une énergie de 3.5 TeV par faisceau. La stratégie choisie collégialement lors d'un atelier qui a eu lieu à Chamonix fin janvier et entérinée par le Directeur Général du CERN, est de faire fonctionner le LHC à 3.5 TeV par faisceau en 2010 et 2011 jusqu'à ce qu'un  nombre donné de collisions soit enregistrée par les détecteurs. La machine s'arrêtera alors en 2012 pour un changement complet des pièces mal conçues et ce n'est qu'à partir de 2013 que l'énergie nominale de 7 TeV par faisceau sera atteinte.

    Le LHC est une machine d'une complexité extrême, c'est une machine unique.  Le problème aurait probablement pu être évité par une meilleure conception et une meilleure vérification des jonctions électriques, mais on ne peut certainement pas critiquer ceux qui ont conçu cet accélérateur, qui ont résolu des milliers de problèmes et sont passés outres toutes les difficultés techniques… sauf une…

    Quant au boson de Higgs, il restera très probablement caché encore quelques années, mais les physiciens ne seront pas au chômage pour autant, des tas d'autres recherches pourront être effectuées sur les données accumulées en 2010 et 2011 et je suis absolument certain que l'imagination fertile de mes collègues fera des miracles afin d'en extraire toute la connaissance possible.

    Photo - Copyright CERN

    mercredi 3 février 2010

    LHC (1)

    Le LHC (Large Hadron Collider) est l'accélérateur de particules le plus puissant au monde, c'est l'exemple typique d'un très grand instrument qui pousse la technologie à ses limites pour les besoins de la recherche fondamentale. Et à ce niveau, quand on parle de fondamental, on a en tête des questions qui touchent à l'existence même des choses.

    L'origine de la masse par exemple : il se trouve que la physique s'accommode fort bien de particules élémentaires sans masse et que quand on essaye d'expliquer pourquoi certaines d'entre elles sont massives, il faut faire intervenir des mécanismes complexes qui viennent briser la belle symétrie naturelle de la nature et qui prévoient l'existence d'une ou de plusieurs autres particules qui doivent se manifester aux énergies atteintes par le LHC. Il s'agit du ou des fameux boson(s) de Higgs, dont certains ont peut-être entendu parler.

    Un autre exemple est l'asymétrie entre la matière et l'anti-matière : Lors du Big Bang, quand les premières particules sont apparues, tout laisse penser que la belle symétrie du monde (encore elle !) faisait qu'il y avait autant de matière que d'anti-matière. Les particules de matière s'annihilaient immédiatement en rencontrant leurs anti-particules et en produisant du rayonnement qui était lui-même réabsorbé par la matière très dense et très chaude qui prévalait à l'époque. Sans une très légère asymétrie dans les processus d'annihilation, l'Univers n'aurait pas évolué vers ce que nous connaissons, puisque, autant qu'on puisse en juger, il semble bien que nous vivions dans un monde de matière ! Nul n'a jamais observé de galaxies d'anti-matière ni d'anti-étoiles. Là encore, le LHC est à même, si ce n'est d'élucider totalement le problème, de mettre en évidence des processus physiques qui se comportent différemment pour la matière et l'anti-matière et qui expliqueraient donc l'asymétrie observée.

    Dernier exemple, la matière noire et l'énergie noire qui contribuent à environ 96% de la densité d'énergie de l'Univers et dont on ne connait pas la nature. En d'autres termes, la matière ordinaire qui nous entoure ne représente que 5% de l'Univers et personne ne sait de quoi est fait le reste. Des arguments solides tendent à indiquer que les expériences installées sur le LHC pourraient mettre en évidence des particules et des processus permettant de comprendre ce "léger" problème.

    On pourrait citer plusieurs autres questions fondamentales que le LHC et ses expériences vont peut-être contribuer à résoudre. On peut à juste titre, se demander comment les physiciens peuvent avoir l'aplomb de prétendre savoir à l'avance ce qu'une machine qui explore un territoire inconnu va découvrir ? La réponse tient au fait que d'une part il faut que la physique soit cohérente, c'est-à-dire que quelques règles de base soient vérifiées, comme la conservation de l'énergie ou le fait qu'une probabilité ne puisse être plus grande que 1. D'autre part, la mécanique quantique qui décrit le monde des particules, fait que des phénomènes qui se passent normalement à très hautes énergies peuvent laisser quelques indices à plus basse énergie. Ces deux éléments permettent de dire qu'à coup presque sûr le LHC va mettre en évidence des phénomènes nouveaux. Si rien ne se manifeste, il faudra alors reprendre tout un pan de la physique pour comprendre ce qui ne va pas. Une sorte de "gros bug" dans le système en quelque sorte.

    Le LHC a été imaginé il y a 30 ans, il s'est peu à peu concrétisé et les expériences ont été conçues il y a une quinzaine d'années. Au moment où on a imaginé les caractéristiques des appareillages, la technologie ne permettait pas de les construire, il a donc fallut se lancer dans de complexes programmes de recherches et développements pour finalement arriver à des objets réalisables et optimisés afin de fournir les meilleures performances à un coût maitrisé.

    Après des débuts difficiles en 2008 sur lesquels je reviendrai dans une autre note, le LHC a fournit ses premières collisions à la fin de l'année 2009. Il va maintenant monter en énergie et en intensité pour fonctionner deux ans durant, ensuite un arrêt d'une année sera nécessaire pour remédier à certains problèmes. Ce ne sera qu'en 2013 qu'il développera toutes ses capacités. La physique des particules est un long chemin, certains ont travaillé 15 ans sur ces appareillages et sont partis en retraite avant même d'en recevoir les fruits. 2010 et 2011 vont être des années formidables d'exploration de terres inconnues, espérons que la Nature sera généreuse et qu'elle nous réservera quelques surprises.

    lundi 1 février 2010

    Rêve brisé

    Aujourd'hui Barack Obama a annoncé un budget de 3.8 trillions de dollars, accompagné d'un déficit record de 1.6 trillions. La politique affichée est un soutien massif à l'économie et à l'emploi. Ce budget annonce aussi le renoncement au programme de la NASA de retour vers la Lune, première étape vers une exploration humaine du système solaire en commençant par Mars.

    Lorsqu'on le met en perspective avec la déclaration de J.F. Kennedy en 1961 lançant la conquête de la Lune, ce renoncement démontre un grand courage politique, n'est ce pas le risque de montrer que les États-Unis ne sont finalement qu'un géant aux pieds d'argile qui finit par courber l'échine face aux difficultés économiques. On est loin de l'exhibition de muscles du passé. C'est probablement une décision mûrement pesée, basé sur une estimation réaliste des coûts, donc finalement tout le contraire de l'annonce tonitruante de 1961. On voit là que les États-Unis ont radicalement changés et que l'élection de Barack Obama marque un tournant majeur.

    Du point de vu strictement scientifique, on ne peut pas regretter ce choix, l'exploration spatiale au moyen de sondes automatiques est bien plus efficace qu'une exploration humaine qui sera forcément limitée en raison des risques et de l'inadaptation des humains au milieu spatial.

    Malheureusement on se rend compte qu'une bonne partie de l'argent économisé va servir à maintenir en service la Station Spatiale Internationale (ISS) au-delà de 2015, date initialement prévue de son abandon. Or, le moins que l'on puisse dire, c'est que le programme scientifique de l'ISS est très léger vis-à-vis des investissements réalisés. Songez: le coût de l'ISS est probablement voisin de 100 milliards de dollars ! N'importe quelle évaluation scientifique basée sur tous les indicateurs possibles et inimaginables conclurait au fiasco. Les seuls projets qui vont probablement  apporter un retour scientifique majeurs sont AMS (Anti Matter Spectrometer) destiné notamment à rechercher l'anti-matière dans l'univers  et qui devrait être installée sur la station cet été, ainsi que JEM-EUSO version japonaise d'un projet abandonné puis ressuscité de détection de particules cosmiques d'ultra hautes énergies. Le but de la station spatiale était tout sauf scientifique, il fallait à tout prix maintenir la compétence de l'ex Union Soviétique dans le domaine spatial et éviter la fuite des cerveaux. Ceci a parfaitement réussi, n'oublions pas qu'une grande partie des transferts entre la Terre et l'ISS se fait grâce aux vaisseaux Soyouz et aux cargos Progress, à tel point que seuls les Russes pourront envoyer des humains sur l'ISS après la mise à la retraite des navettes. En dehors de l'aspect géopolitique Il faut aussi reconnaitre que l'ISS est une formidable aventure humaine à l'échelle mondiale.

    Pour moi qui enfant émerveillé, ai entendu à la radio qu'un homme avait marché sur la Lune un certain jour de l'été 69, c'est une certaine tristesse que je ressens à l'annonce de ce renoncement. Un peu comme un rêve qui s'éloigne, un rêve d'espace, d'astres lointains et d'aventures. Espérons que ce n'est pas là un signe d'une humanité qui se renferme et qui perd ses rêves...

    Barack Obama et ses conseillers souhaitent un transfert des technologies dominées par la NASA vers des entreprises privées. Il est certain que les lancements de satellites commerciaux sont à la portée du privé car il y a un modèle économique solide. Mais qu'en sera-t-il de l'exploration ? Quelles entreprises, quels mécènes seront capables de se lancer dans l'aventure ?