mercredi 30 juin 2010

Les scientifiques sont aussi de grands sportifs

Mon cousin Philippe m'a fait prendre conscience des relations étroites et surprenantes qui existent entre  les mécanismes mentaux mis en œuvre par les sportifs de haut niveau et ceux que mobilisent des scientifiques lors d'une présentation dans une conférence internationale.

Philippe entraine des jeunes au tennis, la base de son enseignement repose sur le détachement total du joueur, rien ne sert de se focaliser sur un mouvement et de se crisper, le bon mouvement apparait quasi-naturellement à partir du moment où le joueur est suffisamment détaché par rapport à son jeu. Détaché ne signifie pas inattentif, bien au contraire. L'état de concentration ultime correspond au moment où le joueur devient partie intégrante du jeu. Il n'y a plus de réaction ni d'anticipation, le sportif joue au présent, il est dans l'instant.

Cette façon d'être se rapproche des principes du tir à l'arc japonais ou Kyudo. D'après Wikipedia: "le pratiquant recherche un mouvement parfait, pour pouvoir transcender à la fois le désir de l'égo et l'objectif très terre à terre, consistant à percer une feuille de papier servant de cible, avec un minimum de tension musculaire et un maximum d'énergie spirituelle". La cible de papier est totalement accessoire, celui qui veut atteindre la cible, la manque. Tout est dans l'harmonie et l'absence de tension. Le tireur, fait corps avec l'arc, il est la flèche.

Cette approche peut sembler bien étrange, pourtant… Philippe obtient semble t'il des résultats extraordinaires qui rejaillissent sur le comportement quotidien des jeunes. J'avoue avoir eu un temps, du mal à accepter ces idées issues de la philosophie Zen, puis j'ai fini par réaliser que j'avais moi-même atteint cet état de conscience très particulier alors que je faisais des présentations scientifiques dans des conférences internationales.

Une présentation dans une grande conférence est un exercice très particulier dans la vie d'un chercheur. L'enjeu pour la collaboration est important,  il faut réussir à exposer un résultat scientifique très complexe dans un temps très court et devant un auditoire d'experts. Un exposé d'une vingtaine de minutes représente des dizaines voire une centaine d'heures de préparation, durant lesquelles il faut tout comprendre de façon à extraire l'essentiel et trouver le moyen de le présenter clairement. À l'heure H, alors que l'orateur est devant ses pairs, il arrive qu'il atteigne un état curieux, dans lequel  les mots sortent de manière naturelle, il est totalement dans son exposé, il est au présent... La sensation est étrange, plus rien n'existe, que le discours qui devient subitement limpide.

Je suis convaincu que la situation du joueur de tennis, du tireur à l'arc japonais et de l'orateur, relève des mêmes mécanismes.

Une autre situation qui me semble similaire est celle où on doit faire face à un problème particulièrement ardu. Le problème est posé, la solution semble exister, on dispose de toutes ses connaissances et de son expérience. Il faut mettre le tout dans le bon ordre et généralement on n'y arrive pas. C'est très frustrant et personnellement ces situations m'ont longtemps donné la sensation de n'être qu'un sombre crétin. J'ai fini par réaliser qu'en pareil cas, il est totalement inutile de s'obstiner sur le problème. L'entêtement conduit généralement à une mauvaise solution qu'on adopte parfois, sans trop y croire, pour se débarrasser du problème. La solution finit généralement par s'imposer d'elle-même quand on a finalement réussi à faire abstraction de l'objectif. La sensation est là encore étrange, quasiment jouissive. On sait que c'est LA solution.

Un article dans les pages scientifiques du New York Times et disponible ici, explique les vertus de l'esprit vagabond. Il est dit que ces errances de pensées que chacun connait, sont ce qui nous permet d'avancer vers nos buts à long terme. Durant les périodes éveillées, les pensées vagabondes occuperait notre esprit 30% du temps et cela monterait même à 75% du temps lorsque nous exécutons une tâche ennuyeuse comme de conduire sur une autoroute vide par exemple.

Les pensées vagabondes que l'on combat parfois car elles nous donnent l'impression de ne pas être attentif, sont finalement le moyen le plus efficace pour résoudre des problèmes complexes impliquant de mettre en relation de nombreuses données. C'est une source de créativité.

Et dire qu'il m'a fallut attendre pratiquement 50 ans pour comprendre cela et aborder les problèmes d'une manière totalement différente. Dommage que l'école ne nous apprenne pas à mieux utiliser notre esprit, que ce soit pour réussir dans le tennis ou dans les sciences !

vendredi 25 juin 2010

Le cerveau quantique

Une discussion récente avec un collègue m'a incité à me pencher sur un sujet hautement spéculatif mais que j'ai trouvé fascinant tant il bouleverse les conceptions habituelles.


Bien que les neurosciences aient grandement progressées ces dernières années, il faut bien admettre que les mécanismes de la mémoire et de l'intelligence sont largement inconnus. Sans être neurophysiologiste et au risque de faire hurler les spécialistes, il me semble que l'idée communément admise est que les mécanismes de la pensée apparaissent quand le réseau de neurones qui constitue le système nerveux atteint une complexité suffisante. La capacité de penser et de mémoriser viendrait donc de la multiplicité des neurones et de leurs interconnexions. Personnellement j'ai toujours trouvé cette idée assez peu convaincante et j'ai du mal à comprendre le mécanisme qui ferait qu'au-delà d'une certaine complexité, un système acquerrait subitement la capacité de faire émerger une pensée.

Les auteurs de la publication disponible ici, expliquent que bien que certaines régions du cerveau, telle que l'hippocampe, soient plus spécifiquement impliquées dans le processus de résurgence d'un souvenir, il semble que plusieurs zones distantes s'activent simultanément sans que l'on comprenne comment elles peuvent être reliées entre-elles. En effet, la communication entre les neurones passe par des processus chimiques impliquant des neurotransmetteurs, qui sont par définition lents.

L'explication avancée repose sur un principe quantique de base bien connu et qui a été vérifié à de nombreuses reprises: On s'arrange pour produire un couple de particules qui forment un état quantique intriqué (c'est-à-dire que les états de bases sont superposés). Tant que le système reste intriqué, il est impossible de connaitre l'état de chacune des composantes du système, la question n'a même pas de sens. Par contre dès que l'on fait une mesure sur l'une des particules, l'état de la deuxième est instantanément fixé, même si les deux particules sont éloignées par des années-lumière.

On voit tout de suite la liaison avec le fait que la résurgence de la mémoire semble déclencher des réactions simultanées en différents points du cerveau. Un stimulus extérieur qui nous rappelle un souvenir déclenche en fait une "mesure" sur un ensemble de neurones, qui fixe instantanément l'état de neurones distants des premiers.

D'autre part, bien que cette science ne soit encore que balbutiante, on sait qu'il est possible d'effectuer des opérations logiques en manipulant des états quantiques intriqués appelés "qubits", il est même probable que l'avenir de l'informatique passe par là. Les auteurs de la publication avancent que le cytosquelette des neurones et les protéines associées serviraient de support à l'information quantique. La tubuline constituant les microtubules du cytosquelette ayant la faculté de basculer entre deux états en fonction de certains paramètres physiques. Le cerveau fonctionnerait finalement comme un ordinateur quantique.

Personnellement, je trouve que cette idée, comme quoi toutes nos pensées se trouvent dans un état latent dans notre cerveau et qu’un stimulus suffit à les matérialiser, est assez élégante et proche de ce que je ressens.

Si cette approche très spéculative est bonne, cela voudrait dire que l'origine de la pensée serait physique et non pas biologique, les tissus biologiques ne seraient finalement qu'un support, permettant d'organiser l'information quantique. En allant encore plus loin on pourrait se demander si le support biologique est le seul possible et si la pensée ne pourrait pas émerger dans des conditions complètement différentes de celles qui existent pour les processus vivants ?

Vertigineux non ?

vendredi 18 juin 2010

Le CERN se mondialise

Le communiqué de presse diffusé par le CERN aujourd'hui et disponible ici, passera peut-être inaperçu, je pense pourtant qu'il marque un tournant dans l'organisation de la recherche mondiale en physique des particules. 

Jusqu'à présent le CERN comptait 20 états membres Européens auxquels s'ajoutaient 6 états ayant le statut d'observateurs (Russie, Inde, États-Unis, Japon, Israël et Turquie) plus l'UNESCO et la Commission Européenne, qui sont également observateurs.

La modification des statuts du CERN permet maintenant à n'importe quel pays de présenter sa candidature pour devenir membre à part entière de l'organisation. Le CERN initialement européen devient donc mondial. L'augmentation du nombre de membres va s'accompagner d'un accroissement du budget du CERN qui permettra à celui-ci de s'engager dans la constructions de nouveaux accélérateurs et de nouvelles expériences. Nul doute que le centre de gravité de la physique des particules mondiale vient de se déplacer vers Genève. Le CERN va donc se retrouver en très bonne position pour accueillir le futur collisionneur linéaire à électrons.

Dans le même temps, le Conseil du CERN a adopté un nouveau code de conduite qui prône des valeurs d'éthique, d'engagement, de professionnalisme, de créativité, de tolérance et d'ouverture. 


Le CERN a été précurseur de l'Europe lors de sa création, souhaitons que l'évolution qui s'engage aujourd'hui soit également annonciatrice d'un nouvel ordre mondial, juste et tolérant. 

samedi 12 juin 2010

La grande saga des neutrinos (suite)

... donc, dès 1968 Davis et ses collaborateurs se rendent compte qu'ils observent environ 3 fois moins de neutrinos solaires que ce que prédisent les modèles décrivant le Soleil. La communauté scientifique est sceptique et on la comprend ! L'expérience est tellement complexe qu'il est facile de supposer que le déficit de neutrinos est dû à un biais expérimental. Mais Davis s'accroche et vérifie minutieusement tout le protocole expérimental. Les expériences se succèdent, les techniques s'affinent, les modèles solaires également... le déficit est toujours là et petit à petit la communauté se convainc qu'il y a bien un problème.

Dans les années 80 plusieurs expériences cherchent à mettre en évidence la désintégration du Proton, là encore, il faut placer d'énormes détecteurs au fin fond de mines ou de tunnels, pour les protéger du rayonnement cosmique. Le Japonais Masatoshi Koshiba est le concepteur de l'expérience KamiokaNDE, initialement destinée à la traque de la désintégration du Proton, est également capable de détecter les neutrinos solaires. Lorsqu'il a rédigé la proposition d'expérience, Koshiba avait écrit à tout hasard que si une supernova explosait dans notre galaxie ou sa proche banlieue, le détecteur serait capable de détecter le flux de neutrinos associé. Bingo ! La supernova 1987A explose et plusieurs détecteurs dont Kamiokande détectent une petite bouffée de neutrinos. Fort de ce succès, le Japon se lance dans la construction d'un détecteur 15 fois plus gros: Super Kamiokande ou plus simplement Super-K qui est mis en service en 1996.

Super-K, en plus des neutrinos solaires est également sensible aux neutrinos atmosphériques. Ces derniers proviennent de la désintégration des muons, eux-mêmes issus de l'interaction des rayons cosmiques dans l'atmosphère. Les neutrinos atmosphériques traversent la Terre, un petit nombre interagissent près du détecteur Super-K et ce dernier voit un muon qui semble provenir de la Terre (il se propage du bas du détecteur vers le haut), cette signature très particulière permet d'identifier les neutrinos atmosphériques sans ambigüité. En 1998 le résultat tombe: Super-K observe un déficit de neutrinos atmosphériques.

Les neutrinos sont donc bien bizarres; les neutrinos électroniques du Soleil disparaissent, il en est de même des neutrinos muoniques de l'atmosphère. Les phénomènes physiques créant ces neutrinos sont complètement différents, le flux de rayons cosmiques est parfaitement connu, la raison du déficit observé est donc lié à la nature même des neutrinos et non pas à la source qui leur donne naissance. Curieusement ce double mystère est la clé qui permet de rassembler les pièces du puzzle.

Nous l'avons vu précédemment, les neutrinos existent sous trois formes appelés "saveurs": électroniques, muoniques et tauiques. Grâce à un phénomène purement quantique, les neutrinos, lors de leur propagation, peuvent se transformer d'une saveur vers une autre. Un neutrino électronique du Soleil va ainsi se transformer en neutrino muonique puis redevenir un neutrino électronique ou se retransformer en neutrino tauique et ainsi de suite. C'est ce qu'on appelle le phénomène d'oscillation des neutrinos.

Le détecteur de Ray Davis n'étant sensible qu'aux neutrinos électroniques, celui-ci ne verra pas les neutrinos qui se sont transformés et observera donc un déficit de neutrinos. De même pour les neutrinos atmosphériques (de type muonique), une partie de ceux-ci se transforment au cours de la traversée de la Terre en neutrinos tauiques et ne sont pas vus par Super-K. L'existence de ce phénomène mis en évidence sans ambigüité par Super-K en 1998 pour les neutrinos atmosphériques, puis par le Sudbury Neutrino Observatory (SNO) en 2001 pour les neutrinos solaires, prouve que les neutrinos ont une masse. En effet, le phénomène d'oscillation est impossible pour des neutrinos de masses nulles.

Ces résultats sont expérimentalement très intéressants, mais ils sont malheureusement basés sur la disparition des neutrinos, c'est-à-dire sur leur non-détection, ce qui est toujours moins convaincant qu'une observation positive. L'expérience OPERA, installée dans le tunnel souterrain du Gran-Sasso dans les Abruzes en Italie, a pour but de détecter les oscillations de neutrinos par apparition. Pour cela, le CERN, à partir d'un faisceau intense de Proton bombardant une cible, fabrique un faisceau de neutrinos muoniques qui est dirigé, à travers la croute terrestre vers le détecteur OPERA situé 730 km plus loin au Gran Sasso. En raison de la rotondité de la Terre, le faisceau s'enfonce à plus de 11 km en dessous de la surface avant de ré-émerger dans le tunnel. Le CERN envoi e cent milliard de neutrinos muoniques par jour vers OPERA, l'expérience espère détecter entre 10 et 20 neutrinos tauiques correspondants a un changement de saveur en cinq ans !

Très récemment la collaboration OPERA a publié l'observation du premier candidat neutrino tauique. L'image ci-dessous est la représentation graphique de l'interaction du neutrino tauique dans un élément de détecteur. La petite trace 4 est identifiée comme le lepton tau qui se désintègre très rapidement en donnant la trace 8. L'angle bien marqué entre les traces 4 et 8 constitue la signature très claire qui est attendue pour une interaction de ce type.



OPERA doit maintenant confirmer cette indication par l'observation de nouvelles interactions du même type, il sera alors possible d'en déduire certains paramètres fondamentaux du phénomène d'oscillation.

samedi 5 juin 2010

La grande saga des neutrinos

Les neutrinos forment une famille de particules élémentaires aux propriétés tout à fait fascinantes. Leur histoire commence avec la découverte de la radioactivité par Becquerel  en 1896 qui fut largement complétée un peu plus tard par Pierre et Marie Curie. La radioactivité existe sous plusieurs formes. La forme dite "bêta" se caractérise par l'émission d'un électron.  Si l'électron était émis seul, il devrait posséder une énergie bien précise, or lorsqu'on mesure celle-ci on observe toute une dispersion de valeurs (ce qu'on appelle un spectre) comme si une autre particule était émise dans la réaction. Les physiciens eurent beau chercher, ils ne trouvèrent rien pendant très longtemps. Niels Bohr envisagera même de renoncer au dogme de la conservation de l'énergie.

En 1930 Wolfgang Pauli, physicien un peu excentrique envoie à ses collègues une curieuse lettre commençant par ses mots:
"Chers dames et messieurs radioactifs,
Je vous prie d'écouter avec beaucoup de bienveillance le message de cette lettre..."
Il tente d'expliquer la dispersion de l'énergie de l'électron par l'émission d'une particule électriquement neutre et indétectable qu'il nomme "neutron". Il précise que ce "neutron" doit avoir une très faible masse.

En 1932, le neutron est découvert par James Chadwick, malheureusement, ce "neutron", bien que neutre comme son nom l'indique, est beaucoup trop lourd pour expliquer le spectre d'énergie des électrons dans la désintégration bêta.

L'idée de la particule de Pauli continue de faire son chemin et Francis Perrin montre que sa masse doit être plus petite que celle de l'électron qui ne pèse déjà pas bien lourd, il envisage même qu'elle puisse être nulle. En 1933, Enrico Fermi propose d'appeler la particule de Pauli le "neutrino", c'est-à-dire le "petit neutron".

En 1934, le mystère s'épaissit, Hans Bethe et Rudolf Peierls montrent que cette mystérieuse particule sera bien difficile à détecter puisqu'elle pourrait traverser la terre sans interagir !

Donc, en 1934 on suppose qu'il existe une particule neutre, de très faible masse, peut être même sans masse, qui n'interagit quasiment pas avec la matière et qui est associée à l'électron dans la désintégration bêta de certains noyaux. La question est donc de trouver le moyen de mettre en évidence cette "chose". Si le neutrino interagit très peu avec la matière, il faut en produire beaucoup dans un espace minimum afin d'avoir une chance d'en détecter une infime fraction. Nous sommes dans les années 50 et on envisage assez sérieusement d'utiliser une explosion nucléaire puisque celle-ci serait une source intense de neutrinos et qu'en ces années là, ça explose à tout va. Une autre solution est de placer un détecteur auprès d'une centrale nucléaire. C'est ce que font Frederick Reines et Clyde Cowan en 1956. Le neutrino ou plus exactement l'anti-neutrino est au rendez-vous et est enfin mis en évidence 60 ans après la découverte de la radioactivité !

L'histoire se compliqua encore un peu lorsqu'on réalisa que les neutrinos peuvent exister sous trois formes et que chacune d'entre-elles est associée à une autre particule, l'ensemble formant la famille des leptons (du grec "leptos": léger). Le neutrino électronique est associé à l'électron, le neutrino muonique au muon et le neutrino tauique au tau. Un neutrino électronique qui interagit produira un électron, un neutrino muonique un muon et de même pour le tau. Le neutrino tauique, postulé pendant très longtemps, ne sera mis en évidence qu'en 2000 par l'expérience DONUT du FNAL (États-Unis).

Un autre mystère qui entoure toujours le neutrino concerne sa masse, en effet celle-ci  est tellement petite et difficile à mesurer  qu'on ne la connait toujours pas aujourd'hui. On sait juste qu'elle est non nulle.

La quasi absence d'interaction des neutrinos avec la matière est d'un certain point de vue un avantage considérable. En effet, beaucoup de phénomènes de l'Univers produisent des neutrinos, et ceux-ci une fois produits, traversent le cosmos sans interagir. Ils sont donc porteur d'une information qui n'est pas perturbée au cours de leur long voyage. Par exemple, les réactions nucléaires dans le Soleil produisent des quantités énormes de neutrinos qui  balayent la Terre et qui peuvent nous renseigner sur les mécanismes physiques présents au cœur même de notre étoile.

Chaque cm2 de surface de la Terre est bombardé à chaque seconde par 65 milliards de neutrinos. Malheureusement, chaque neutrino solaire n' a qu'une chance sur 1000 milliards d'être arrêté par la Terre. La détection des neutrinos du Soleil est donc un défi. Dès 1948, c'est-à-dire avant la première mise en évidence du neutrino, le physicien Italien Bruno Pontecorvo, propose déjà une technique de détection des neutrinos solaires utilisant leur interaction avec le Chlore. L'expérience est construite entre 1965 et 1967 par Ray Davis dans la mine de Homestake dans le Dakota du Sud, à 1400 m sous terre afin de se protéger du rayonnement cosmique. Le défi est énorme, il faut filtrer et traiter chimiquement 400 m3 de liquide chloré afin de détecter un seul atome d'Argon par semaine qui signe l'interaction d'un neutrino. L'expérience fonctionnera durant 24 ans (!) et permettra non seulement de détecter les neutrinos solaire, mais également de se rendre compte que leur flux est bien plus faible que ce qu'on attend. Mais cela est une autre histoire qui fera l'objet d'un autre article…

Pour en savoir plus sur les neutrinos, voir par exemple ici ou encore .