lundi 27 décembre 2010

Le destrier d'Orion

La photographie ci-dessous a été prise hier soir depuis mon jardin avec une petite lunette de 66 mm de diamètre pour 400 mm de focale et équipée d'un filtre H alpha. L'image finale résulte de l'empilement de 16 poses individuelles de 4 minutes. Le temps d'exposition total est donc de 1 heure et 4 minutes.

Il s'agit de la "Tête de Cheval" dans la nébuleuse IC434 ; elle est située à environ 1500 années lumière de la Terre dans la constellation d'Orion. La Tête de Cheval elle-même fait partie d'un nuage de poussières dense qui masque une nébuleuse en émission, c'est-à-dire un nuage d'hydrogène excité par l'intense rayonnement émis par une étoile voisine. En bas à gauche, on distingue une portion de la nébuleuse de la Flamme et juste au dessus, se trouve l'étoile Alnitak, visible à l'œil nu comme l'étoile la plus à l'Est du "baudrier d'Orion".

Dans le ciel, le champ couvert par la photographie représente deux fois le diamètre de la pleine Lune, c'est-à-dire que si nos yeux étaient suffisamment sensibles, il serait alors possible de voir ce spectacle magnifique sans aucun grossissement.

La nébuleuse de la Tête de Cheval a été observée pour la première fois en 1890 par Williamina Paton Stevens Fleming qui ayant été abandonnée par son mari, était entrée au service du célèbre astronome Edward Charles Pickering. La petite histoire dit que ce dernier, mécontent de ces assistants masculins avait offert à sa femme de chambre un poste à l'observatoire.
La photographie ci-dessus montre la plaque photographique analysée par Williamina Fleming sur laquelle la Tête de Cheval apparait pour la première fois. Williamina Fleming fut l'auteure de biens d'autres découvertes dont celle des étoiles de type "naines blanches".
Orion est la constellation typique du ciel d'hiver. Outre la Tête de Cheval et la Flamme, elle renferme la grande nébuleuse d'Orion, immense nuage de gaz que l'on distingue à l'œil nu si la nuit est bien noire. Sortez dehors, levez le nez, bravez le froid, c'est superbe...

vendredi 24 décembre 2010

Théories physiques et représentations du monde (2)

L'émergence des nouvelles théories de la physique moderne au XXe siècle, avec les relativités (restreinte et générale) et la mécanique quantique, s'est accompagnée d'une complexification considérable de la représentation des mondes qu'elles décrivent.
Les concepts de mécanique classique ne posent aucun problème de compréhension car ils décrivent le plus souvent le comportement d'objets courants, macroscopiques, évoluant à des vitesses humainement concevables... Il est facile d'imaginer ou de réaliser des expériences qui en illustrent les principaux aspects et les effets observés heurtent rarement le sens commun.

La représentation de la mécanique céleste commence déjà à poser quelques problèmes. Il faut, par exemple, admettre que des corps massifs interagissent entre eux grâce à une force de portée infinie et proportionnelle à la masse des corps en question.  Il faut également admettre qu'un corps mis en mouvement dans le vide et soumis à aucune force va conserver ce mouvement indéfiniment. C'est logique quand on y pense, mais ce n'est absolument pas intuitif si on se réfère aux situations de la vie courante où les frottements tendent à stopper tout mouvement après un temps relativement court à l'échelle humaine.

Le problème se complexifie considérablement avec les relativités et la mécanique quantique car ces théories décrivent  des situations que nous n'observons pas dans la vie courante. Par exemple pour un Être Humain normalement constitué, le temps est absolu : il s'écoule du passé vers le futur  de la même manière en tout point du globe et quelques soient les conditions dans lesquelles on se trouve. La vie courante est construite autour de ces principes et les horloges synchronisées à quelques fractions de seconde près rythment notre existence. La notion de relativité du temps en fonction du référentiel dans lequel se trouve l'observateur bouleverse le sens commun. De même, la représentation quantique d'une particule dont on ne peut pas dire à coup sûr qu'à tel moment elle se trouve à une position donnée et qu'elle est animée d'une vitesse précise, est difficilement concevable. Même les plus grands physiciens ont eu du mal avec ces notions, à tel point que certains n'ont jamais cru à la véracité de la théorie quantique. Il est vrai que jusqu'au début du XXe siècle, on était persuadé du caractère déterministe de la physique ; une "bonne" théorie se devait donc de pouvoir prédire à coup sûr des grandeurs comme la vitesse ou la position d'un objet pour peu que l'on connaisse les conditions initiales du système et les forces mises en jeu.

Le fond du problème est notre difficulté, voire notre incapacité à construire une représentation du monde différente de celle que nous percevons dans notre quotidien. Quoiqu'on  fasse, on aura toujours un mal fou à se représenter une particule autrement que comme une petite bille et un atome autrement que sous la forme d'un système planétaire dans lequel le noyau joue le rôle du Soleil et les électrons celui des planètes. Si vous demandez à des physiciens de vous expliquer ce qu'est le spin d'une particule, il y a fort à parier que la majorité d'entre eux répondront que c'est une quantité qui caractérise le fait qu'une particule tourne sur elle-même dans un sens ou dans l'autre ! Cette représentation du spin n'a rien à voir avec la réalité ; elle ne sert qu'à tenter de mettre une image sur des propriétés physiques qui n'ont aucun équivalent dans notre monde macroscopique. 

Le besoin de mettre des images sur des phénomènes physiques va très loin. C'est ainsi que les physiciens des particules ont inventé la notion de "charge de couleur" pour les quarks. Chaque quark est ainsi affublé d'une couleur arbitraire, un ensemble de quarks composant une particule devant globalement être neutre au niveau des couleurs. Par exemple, un baryon (proton, neutron,…) est composé de 3 quarks obligatoirement de couleurs différentes afin que la résultante soit blanche. Bien entendu, ces couleurs sont des représentations mentales d'une réalité qui est toute autre.

A partir d'un certain niveau de complexité, il devient très difficile de construire des représentations mentales cohérentes et seules les mathématiques permettent de décrire fidèlement les phénomènes physiques. Cet état de fait peut semer le doute chez les non spécialistes qui ne voient dans ces théories qu'un édifice mathématique abscons alors qu'il s'agit bien d'une représentation (parfois imparfaite) de la réalité. De même, une prédiction découlant de calculs mathématiques, aussi surprenante soit-elle, doit être considérée comme la manifestation d'une réalité si l'expérience la confirme.

La grande question qui se pose, et à laquelle je n'ai pas de réponse, est : Pourquoi les mathématiques sont ce qu'on a trouvé de mieux pour représenter le monde ? Y a-t-il là quelque chose de fondamental ? Les mathématiques sont-elles le fondement même de l'Univers, ou n'est-ce qu'un pis-aller pratique qui pourrait être détrôné par une autre approche qui s'imposera quand l'Humain aura atteint un niveau de conscience supérieur ?

vendredi 10 décembre 2010

Théories physiques et représentations du monde (1)

Je suis toujours un peu étonné de la vision manichéenne souvent exprimée par le grand public sur les grandes théories de la physique moderne. Il semble que pour beaucoup de personnes, une bonne théorie se doit d'être juste dans l'absolu, comme si la seule vraie théorie était celle qui décrivait l'Univers dans son ensemble, une sorte de théorie du Tout ou de théorie de Dieu. Cette conception tend d'ailleurs à décrédibiliser la science et les scientifiques, car le fait qu'une partie d'une théorie soit remise en cause par l'observation ou par de nouvelles avancées conceptuelles, est assimilé à l'invalidation de l'ensemble.

A cet égard, la théorie de la relativité restreinte d'Einstein a souvent été mise en cause. C'est un peu passé de mode, mais on a vu pendant longtemps, y compris dans des journaux de vulgarisation scientifique, que tel ou tel avait démontré que cette théorie était fausse. J'imagine que les paradoxes temporels  étant sources de beaucoup de fantasmes et heurtant le sens commun, la relativité restreinte se trouvait être une cible toute désignée pour les sceptiques.  Or, actuellement, les relativités restreinte et générale marchent tellement bien que même pour une application aussi courante que le GPS, il est indispensable de prendre en compte les corrections relativistes si l'on veut éviter une dérive de précision de l'ordre de 2 km par jour ! Chaque jour, des millions de personnes à travers le monde vérifient donc la relativité dans leur voiture et quand vous n'arrivez pas à bon port c'est à coup sûr à cause d'une erreur dans les cartes ou dans le logiciel et Albert n'y est pour rien !

Une théorie, pour être valable, se doit d'expliquer les observation et d'être prédictive, c'est-à-dire être capable de prédire le résultat d'une mesure encore jamais réalisée. Une théorie a toujours un domaine d'application. Par exemple, lorsque les Grecs ont introduit les épicycles dans leur théorie sur le mouvement des astres, c'était pour rendre compte de l'observation des "astres errants" (les planètes) qui semblaient se déplacer différemment des autres astres (les étoiles). Cette théorie qui nous semble maintenant un peu bizarre, rendait compte de l'observation et avait certainement un certain pouvoir prédictif. C'était donc une "bonne" théorie, adaptée à la compréhension et aux moyens d'observation de l'époque.

De même, la mécanique classique qui permet de décrire le comportement des objets macroscopiques animés d'une vitesse petite devant celle de la lumière fonctionne très bien. Elle décrit magnifiquement le monde courant et me permet de calculer la trajectoire d'un objet mobile avec une précision tout à fait honorable. C'est quand je sors du domaine d'application de la mécanique classique que je dois me placer dans le cadre d'une théorie plus générale ou plus adaptée. Par exemple, si mon objet se déplace avec une très grande vitesse, je vais devoir appliquer des équations relativistes, ou bien si mon objet est une particule élémentaire interagissant avec une autre, il me faudra alors me placer dans le cadre de la théorie quantique des champs. Aucune de ces théories n'est juste dans l'absolu ; toutes sont les meilleures descriptions  que nous connaissions dans des domaines bien précis. Rien ne m'empêche d'ailleurs de me placer dans un cadre relativiste pour décrire le mouvement d'un train, je vais juste compliquer les calculs pour arriver au même résultat que si je m'étais placé dans un cadre classique non relativiste.

Une nouvelle théorie émerge lorsque les théories existantes sont incapables de rendre compte de l'observation. Par exemple, au début du XXe siècle, les physiciens étudient les propriétés d'un objet relativement simple nommé "corps noir" : il s'agit d'un système capable d'absorber intégralement les rayonnements auxquels il est exposé.  Une fois à l'équilibre thermique, il réémet un rayonnement dont on peut mesurer les caractéristiques. Or, quand on fait les calculs dans le cadre de la physique classique, on arrive à la conclusion absurde que le corps noir doit rayonner une quantité infinie d'énergie. Ce fut l'un des deux arguments qui ont mené à l'élaboration de la théorie quantique, l'autre étant l'explication de l'effet photo-électrique par l'existence de quanta de rayonnement, nommés photons. On voit donc que l'émergence d'une théorie qui va bouleverser profondément notre conception de la physique découle des propriétés d'un objet relativement banal (en première approximation, il s'agit d'un four parfaitement isolé et percé d'un petit trou permettant d'effectuer les mesures).

L'apparition de quantités infinies dans les calculs est toujours le signe que quelque chose ne fonctionne pas (et pour cause !) C'est par exemple par des arguments de ce type que l'on sait que le modèle standard de la physique des particules est incomplet et que le LHC est très bien placé pour mettre en évidence de nouveaux phénomènes caractéristiques d'une théorie physique plus générale. Quand on fait face à une telle situation, de nombreuses théories sont proposées par les théoriciens. Toutes doivent au minimum être capables de rendre compte de la physique connue. Ce seront finalement les résultats des expériences qui permettront de repérer les bonnes théories et d'éliminer les autres sans appel.

Toute théorie n'est donc pas bonne à priori. La science ne permet pas de supposer n'importe quoi. Par exemple, la gravitation fait que ma chaise a ses quatre pieds bien posés sur le sol. Une théorie qui prédirait qu'elle va se soulever d'elle-même jusqu'au plafond peut être rejetée immédiatement. Cet exemple est évidemment absurde mais les hypothèses farfelues prédisant l'engloutissement de la Terre dans un trou noir créé par le LHC l'étaient tout autant et pourtant elles ont fait couler beaucoup d'encre et il a fallu que le CERN se justifie. Certes, nous sommes loin de tout connaitre, mais cela ne veut pas dire que nous ne connaissons rien. Un certain nombre de choses ne peuvent simplement pas être.

samedi 20 novembre 2010

Super Computing à la Nouvelle Orléans

Chaque année au mois de novembre a lieu au États-Unis la grande conférence "Super Computing" qui est l'occasion de faire le point sur l'état de l'art en matière d'informatique de pointe, on pourrait même parler ici d'informatique extrême.  C'est au cours de cette conférence qu'est établie l'une des deux éditions annuelles du "top 500" des ordinateurs les plus puissants de la planète.
Balade dans le "French Quarter"
Le "top 500" a un petit côté puéril dans le sens où c'est quasiment une question de fierté nationale de montrer aux yeux des observateurs ébahis que l'on possède la plus grosse… machine mondiale. D'un autre côté le "top 500" permet de quantifier les progrès technologiques et de se projeter dans l'avenir afin de déterminer quand l'informatique permettra de résoudre tel ou tel problème particulièrement gourmand en puissance de calcul.

Cette année Super Computing avait lieu à la Nouvelle Orléans et rassemblait 10 000 experts. Pour la première fois, la Chine a obtenu la première place au "top 500" avec la machine Tianhe-1A (Tianhe signifiant Voie Lactée en chinois) qui déploie une puissance de 2.6 petaFlops c'est-à-dire 2.6 millions de milliards d'opérations en virgule flottante par seconde, loin devant  la machine américaine Jaguar de la compagnie Cray qui n'aligne "que" 1.8 petaFlops.

Le "top 500" est déterminé en exécutant le même algorithme étalon sur toutes les machines. L'étalon nommé "LINPACK", consiste à résoudre un énorme système d'équations linéaires. La résolution nécessite un très grand nombre de calculs élémentaires qui  sont répartis sur l'ensemble des processeurs de la machine. LINPACK va s'exécuter d'autant plus rapidement que la vitesse des processeurs est grande, que leur nombre est important et qu'ils disposent d'un réseau suffisamment performant pour échanger des informations rapidement. L'algorithme lui-même est relativement simple et est donc facilement implantable quelque soit le type de processeur utilisé. Il est possible à partir des données constructeurs de déterminer la puissance théorique d'un ordinateur que l'on peut alors comparer avec la puissance mesurée. Dans la liste du "top 500" ces deux valeurs sont respectivement désignées par Rpeak (théorique) et Rmax(mesurée). Un rapport Rmax / Rpeak proche de 1 indique que l'architecture matérielle est parfaitement exploitée par l'algorithme.

Quand on regarde le rapport Rmax / Rpeak pour les premiers ordinateurs du Top 500, on voit que la machine chinoise présente un ratio de 0.55 alors qu'il est de 0.78 pour le Jaguar américain et même 0.84 pour la machine française classée 6ème au Top 500. En fait la machine chinoise est hybride et tire l'essentiel de sa puissance d'une utilisation massive de processeurs graphiques (américains) détournés à des fins de calcul. Cette architecture est astucieuse mais introduit des contraintes de programmation importantes et certaines applications complexes ne peuvent pas l'exploiter pleinement. Tianhe est donc une machine taillée pour le Top 500 mais elle serait certainement plus difficilement exploitable dans un autre cadre et se comparerait sans doute à la moyenne de ses concurrentes directes.

Ceci étant, la performance chinoise est excellente car il est loin d'être évident d'assembler une telle machine et le réseau d'interconnexion qui est parait-il de conception entièrement chinoise est certainement très performant.  

Sur un plan moins technique, il est intéressant de noter qu'une partie des 10 premières machines du "top 500" est, principalement destinée à des usages militaires. La machine française TERA100 est installée dans les locaux de la Direction des Affaires Militaires (DAM) du CEA et va servir aux modélisations et simulations nécessaires à la mise au point des armes nucléaires de demain. Elle prend le relai de TERA 10 qui était déjà bien placée au "top 500" en son temps. Il en est de même pour le "Road Runner" de Los Alamos,  et n'en doutons pas, pour Tianhe. Incontestablement, la dissuasion nucléaire se déplace maintenant vers l'informatique et il viendra peut-être un jour où le nombre de têtes nucléaires disponibles dans un pays, sera moins significatif que la puissance informatique et le niveau d'expertise des informaticiens militaires.

En dehors des applications militaires, ces supercalculateurs sont indispensables pour modéliser de plus en plus finement des phénomènes physiques complexes tels que des écoulements turbulents, l'évolution de galaxies ou encore tenter de comprendre l'évolution du climat sur de grandes périodes de temps, en tenant compte de la complexité de l'ensemble du globe terrestre (océans, terre et atmosphère). Certaines disciplines ne peuvent progresser que par un recours à des ordinateurs de plus en plus puissants.
Une petite partie des équipements réseau mis en oeuvre
Mis à part le "top 500", la conférence Super Computing est l'occasion d'avoir une vue d'ensemble de tout ce qui touche à l'informatique de pointe, un gigantesque hall d'exposition et de démonstration permet aux participants de voir le matériel et de discuter avec des experts. 
La technologie déployée est impressionnante. Chaque année, des experts du monde entiers collaborent avec des fabricants de matériel pour créer, le temps de la conférence, SCINET, le réseau informatique le  plus rapide au monde. Cette années, pas moins de 270 km de fibres optiques ont été installées, le site de la Nouvelle Orléans était capable d'échanger 260 GigaOctets de données par seconde avec le monde extérieur (cela représente le contenu de 50 DVD chaque seconde) et une liaison expérimentale à 100 Gigabits par seconde était disponible pour réaliser des tests.

Quant à l'organisation, elle est à l'américaine avec de grands shows très colorés et hétéroclites, les exposants n'hésitant pas à payer de leur personne, tel ce constructeur qui faisait son exposé juché sur un monocycle et entravé par une camisole de force ! Ou tel autre qui avait engagé une diseuse de bonne aventure tirant les tarots et lisant dans une boule de cristal ! Dans un contexte scientifique, le décalage est total.  En tout cas, le show est bien rodé et vaut le déplacement.
Ce qu'il ne faut pas inventer pour attirer l'attention !

dimanche 7 novembre 2010

Vous ne regarderez plus votre appareil photo tout à fait de la même manière...

Le détecteur ATLAS sur le LHC (Copyright CERN)

Lorsque l'on montre les détecteurs qui sont installés sur le LHC, les visiteurs sont souvent impressionnés par le gigantisme et l'apparente complexité de la technologie mise en jeu. Il est pourtant possible à tout un chacun d'en comprendre le principe de fonctionnement en remarquant qu'un banal appareil photographique numérique possède un grand nombre de points communs avec les détecteurs de particules.

Un appareil photographique n'est rien d'autre qu'un détecteur de lumière, or, depuis qu'Einstein a décrit l'effet photo-électrique on sait que la lumière peut-être considéré comme un ensemble de particules que l'on nomme "photons". Les collisionneurs de particules produisent de grandes quantités de photons énergétiques. En photographie, l es grains de lumière ont une énergie bien plus faible, mais la physique sous-jacente est la même. Un appareil photographique est donc un détecteur spécialisé dans la détection de photons "faiblards" alors que les détecteurs en physique des particules sont également sensibles à d'autres types de particules, par exemple les électrons, les pions, les kaons, etc...

Le capteur CCD ou CMOS du boitier photo est l'élément sensible du système qui va convertir les flux de lumière en une série de signaux électriques. Un détecteur de particules contient également des éléments sensibles capables de produire des signaux  dépendant des caractéristiques de la particule détectées. Un détecteur va selon les cas, donner des informations permettant de retrouver  la position, l'énergie, la charge électrique, etc.

Le capteur photographique couleur est constitué d'une matrice de millions de pixels, chacun d'entre eux est muni d'un minuscule filtre coloré rouge, vert ou bleu. Un pixel touché va donc donner une information sur la position des grains de lumière incidents et sur la couleur de ceux-ci, c'est-à-dire sur leur énergie (un photon bleu est un peu plus énergétique qu'un photon rouge).

L'électronique du détecteur ou du boitier photo est destinée à récupérer les signaux électriques produits par les éléments sensibles, à les mettre en forme et à les coder sous une forme numérique (ce sont les fichiers ".jpg" des appareils photos). La mise en forme est très importante, il faut nettoyer les signaux électriques qui possèdent toutes sortes de biais, il faut également égaliser la réponse de l'ensemble des éléments de détection de façon à ce que deux grains de lumières (ou deux particules) ayant les mêmes caractéristiques produisent le même signal en chaque point du capteur (ou du détecteur). Tout ceci est heureusement fait automatiquement.

Les informations codées numériquement sont stockées sur la carte mémoire de l'appareil photo ou sur des systèmes de stockage très capacitif pour les détecteurs de particules. Une fois la carte mémoire vidée sur un PC il est possible d'appliquer des traitements supplémentaires avec des logiciels adaptés pour renforcer les contrastes, supprimer les yeux rouges, voire même cacher un bouton disgracieux... Les photos seront ensuite distribuées sur Picasa, Flickr ou Facebook en utilisant les réseaux informatiques. C'est le même processus pour la physique ; les données sont traitée, analysées, filtrées et distribuée dans le monde entier grâce aux réseaux informatiques afin que les physiciens puissent les exploiter et "taguer" les quelques particules ou phénomènes physiques qui auront été identifiés. Pour un physicien, le tag "Higgs" est aussi attendu et recherché que le tag "petite dernière" après une naissance attendue !

En physique, tout comme dans la vie, on ne photographie pas n'importe quoi. Le photographe observe la scène sur le petit écran de l'appareil et n'appuie sur le déclencheur que lorsqu'il est parfaitement content du cadrage et du niveau de zoom. De même, les détecteurs n'enregistrent pas tout  à chaque collision. Un système basé sur des mesures rapides mais grossières analyse rapidement  ce qui se passe et ne déclenche la lecture complète des centaines de millions d'information du détecteur que lorsque certains éléments indiquent que la collision a des chances d'être intéressante. Ce dispositif nommé "trigger" doit être extrêmement bien fait pour éviter d'introduire des biais dans les analyses de physique et surtout éviter de rater un phénomène intéressant.

Le principe des détecteurs de physique des particules n'est pas plus compliqué que cela, c'est la masse d'informations produites et la vitesse des "prises de vues" qui nécessitent la débauche de technologie que l'on observe dans les expériences installées sur le LHC.

jeudi 14 octobre 2010

Au temps où les ordinateurs balbutiaient ou l'étrange histoire de M. Klein

On a tendance à l'oublier, tant l'électronique et l'informatique sont omniprésents dans le monde actuel, mais il fut un temps, pas très éloigné d'ailleurs, où les calculs se faisaient à la main, de tête ou à la rigueur avec des calculateurs très sommaires. 

Je me souviens très bien de mon Papa dans les années 65-68, économe dans un grand centre hospitalier qui faisait des comptes avec la petite machine mécanique "Curta" présentée sur la photo ci-contre. Papa a toujours été à la pointe du progrès, mais dû attendre 1973 ou 1974 pour avoir sa première calculatrice électronique de poche, une HP 45 je crois.

En physique, qu'elle soit expérimentale ou théorique, on a bien du mal à imaginer que tant d'avancées aient pu être faites sans machine à calculer, avec la seule aide de la règle à calcul et des tables de logarithmes. Et pourtant les grandes révolutions de la physique, la relativité restreinte et générale, la mécanique quantique, la théorie des champs ont été élaborées et mises en application bien avant l'avènement de l'informatique.

Le CERN, installa son premier ordinateur en 1958, il s'agissait d'un énorme Ferranti Mercury ayant un temps de cycle (temps nécessaire pour effectuer une instruction élémentaire) de 60 microsecondes et une mémoire de masse d'un peu plus de 130 0 00 mots de 20 bits ; même pas de quoi stocker une unique photo d'un appareil photo numérique bas de gamme ! La programmation d'un tel système était loin d'être aisée et ne pouvait être entreprise que par des spécialistes. Impossible donc pour un physicien standard d'utiliser directement la machine.
L'ordinateur Ferranti Mercury du CERN (copyright CERN)
Cette même année 1958, suite à un concours de circonstances, peut-être favorisé par la concordance de nationalité des deux personnes, le directeur du CERN de l'époque: C.J. Bakker rencontra Wim Klein, un calculateur prodige qui avait exercé dans le milieu du music hall et lui proposa de l'embaucher. Celui-ci accepta et devint une sorte d'ordinateur humain au service de la physique des particules. 
Wim Klein en action (Copyright CERN)
Il travaillait au côté des théoriciens et calculait les expressions mathématiques issues de leurs recherches. Son raisonnement permettait également de mieux programmer les ordinateurs en orientant les méthodes de programmation des informaticiens.  Jusque vers 1965, il fit jeu égal avec les ordinateurs du CERN, certains physiciens préférant souvent le contact humain avec Wim Klein à la complexité froide des machines. Après 1965, l'informatique devenant plus puissante et plus conviviale, son rôle scientifique déclina, mais il était devenu une icône et resta au CERN où il intervenait auprès des jeunes ainsi que lors de démonstrations publiques qui attiraient beaucoup de monde. Il quitta finalement le CERN en 1974 pour retourner vivre aux Pays Bas.

Au summum de son entrainement Wim Klein réussit à extraire de tête la racine 73ème d'un nombre de 500 chiffres, en 2 minutes et 9 secondes. Durant son intense réflexion,  il marmonnait en hollandais ce qui l'aidait à se concentrer.

Wim Klein fut assassiné chez lui en 1986, l'affaire ne fut jamais élucidée.


Le lien suivant pointe vers le film de la toute dernière exhibition de Wim Klein lorsqu'il quitta le CERN: http://cdsweb.cern.ch/record/422552

samedi 2 octobre 2010

Monsieur Charpak

Georges Charpak est l'inventeur d'un système extrêmement astucieux permettant de détecter et de reconstruire le passage d'une particule chargée dans un milieu gazeux. Le détecteur dont la dénomination la plus simple est "chambre à fils" est une enceinte remplie de gaz et dans laquelle sont tendus des fils très fins et portés à une haute tension (1500 à 2500 Volts). Lorsqu'une particule possédant une charge électrique traverse le gaz, elle ionise celui-ci, c'est-à-dire qu'elle arrache des électrons aux atomes. Les électrons chargés négativement sont attirés par les fils portés à une tension positive, on dit qu'ils dérivent. En arrivant à proximité des fils les électrons vont ressentir un champ électrique intense qui va provoquer leur multiplication. Cette avalanche  d'électron est captée par le fil sous la forme d'un courant électrique  de faible intensité, mais parfaitement détectable par un système électronique adapté. En choisissant correctement le mélange de gaz, le diamètre des fils, la tension électrique et l'électronique, la chambre à fils est capable de donner des informations qui permettront de caractériser la particule incidente et surtout de reconstruire sa trajectoire.

Ce détecteur a littéralement révolutionné les techniques expérimentales en physique des particules. Avant son invention, on utilisait des chambres à bulles dans lesquelles on photographiait de minuscules bulles provoquées par le passage des particules dans un liquide maintenu dans un état métastable. On arrivait, au mieux,  à prendre quelques photos par seconde et les traces de ses particules devaient être mesurées manuellement par une armée de techniciennes entrainées (les "scanneuses"). La chambre à fil permet de mesurer des flux de plusieurs milliers de particules par seconde et de reconstruire les traces informatiquement. Une partie des éléments constituant les grands détecteurs installés sur le LHC sont les successeurs directs des chambres de Charpak.

La photographie ci-contre montre la grande chambre à fils de l'expérience BaBar lors de sa construction. On distingue les milliers de fils fins comme des cheveux et recouverts d'une pellicule d'Or.


En dehors de la recherche fondamentale, la chambre à fils a de très nombreuses applications, notamment pour l'imagerie médicale, domaine dans lequel Georges Charpak s'est énormément investi à la fin de sa carrière.


Georges Charpak, en plus d'être un instrumentaliste génial, avait compris que la science devait être au service de la société au travers de l'éducation. De ses voyages aux USA et de son amitié avec le physicien  Leon Lederman, il a rapporté en France une méthode d'apprentissage de la démarche scientifique basée sur l'expérimentation. "La main à la pâte" a été et reste un grand succès dans les écoles. Avec ses livres et ses prises de positions publiques, il a contribué à faire reculer le charlatanisme en montrant à quel point il est important de développer un esprit critique. Ne jamais se fier aux apparences, ne pas gober tout cru tout ce qui est présenté avec un vernis pseudo-scientifique, faire preuve de sens critique...

Moins connu est le fait que Georges Charpak a contribué à développer des échanges entre la Colombie et la France, nombre de jeunes ingénieurs colombiens sont venus passer une période en France dans les meilleurs laboratoires, quelques uns sont restés, d'autres sont repartis en Colombie et ont contribué au développement technique du pays. Son attache avec la Colombie était liée à sa fille Nathalie, pédiatre installée à Bogota qui a développé la technique dites du "Peau à Peau" qui permet de maintenir en vie un bébé prématuré en le plaçant tout contre sa mère (ou son père) dans les pays qui ne disposent pas de couveuses. Avec l'imagerie médicale et le peau à peau, nul doute que la famille Charpak a contribué à sauver bien des vies.

Contrairement à ce qui est écrit dans le livre de Dan Brown "Anges et Démon", Georges Chapak ne jouait pas au Frisbee sur les pelouses du CERN, mais il ya quelques années on croisait souvent sa chevelure toute blanche et ses yeux bien bleus à la cafétéria.

Ma fille rigolait en lisant que Georges Charpak avait dit que "la physique des hautes énergies devait beaucoup au scotch". J'atteste de la véracité de cette affirmation. Les rouleaux de gros scotch noir plastifié sont omniprésents dans les expériences. Ils servent aussi bien à rendre  les détecteurs étanches à la lumière, qu'à fixer tous les éléments que l'on assemble dans la précipitation au milieu de la nuit quand le temps de faisceau est compté.
Monsieur Charpak vous étiez un grand homme, au propre comme au figuré, merci de saluer Pierre et Marie de ma part lorsque vous les rencontrerez.

jeudi 23 septembre 2010

Psychohistoire

Dans le cycle des "Fondations", l'auteur de science fiction Isaac Asimov imagine une nouvelle discipline scientifique nommée "psychohistoire" qui repose sur l'étude statistique du comportement des populations  et qui permet de prédire l'évolution historique de celles-ci. La psychohistoire atteint un tel degré de raffinement que Hari Seldon,  le héro mis en scène dans le premier opus, arrive à prédire précisément l'avenir des peuples de la galaxie sur des millénaires. Fort de cette connaissance, il met au point une stratégie afin de tenter de modifier l'avenir.

Bien entendu tout cela relève de la science fiction et il est impensable que l'on puisse prévoir l'évolution sur le très long terme des sociétés. Toutefois et à une échelle infiniment moins grande, on peut se demander si les statistiques globales enregistrées par le moteur de recherche Google ne recèlent pas des informations qui, une fois correctement extraites et corrélées, permettraient de prédire certains comportements sociétaux et éventuellement d'agir sur ceux-ci. En tout cas, Google a à sa disposition une statistique mondiale d'utilisation de mots clés correspondant s aux préoccupations des gens.

En 2008 Google a soumis un article pour publication dans la revue Nature qui montre qu'en étudiant le nombre d'occurrences de certains mots clés dans les recherche des internautes il est possible d'avoir une vision claire de la situation des épidémies de grippes. En effet, une recherche de mots clés du genre: "Symptômes de la grippe", "fièvre", "douleurs musculaires", etc. si elle est répétée au même moment par des dizaines de personnes dans la même zone géographique, est très probablement le signe que la grippe a fait son apparition dans la région en question.

Le graphique ci-contre compare l'estimation du suivi de la grippe par Google (en bleu) à celui réalisé par des centres spécialisés (en orange). 

La similitude est frappante. Google est donc capable de mettre en évidence en temps réel l'apparition des foyers infectieux dans différentes régions du monde.

Google met à la disposition de ses utilisateurs un outil nommé "Google tendances" qui permet de tracer soit même une courbe qui représente la popularité de certaines recherche de mots clés en fonction du temps. Par exemple, le graphique ci-contre montre la distribution temporelle des recherches sur le mot "marxisme" en France.
Première observation : Le nombre de recherches tend à diminuer au cours du temps, semblant indiquer un désintérêt progressif des internautes pour cette idéologie. 
Deuxième observation : le graphique montre une structure périodique. Le nombre maximum de recherches a lieu au mois d'octobre de chaque année. Est-ce dû à la révolution d'octobre ? Ce serait assez paradoxal puisque celle-ci a eu lieu en novembre ! Il apparait également un regain d'intérêt que je n'explique pas en janvier et un autre plus évident en mai. Par contre, en juillet les préoccupations des français semblent être loin de la révolution ! La structure périodique est tellement bonne que Google se permet même de faire des prédictions sur l'avenir. Psychohistoire, tu n'es pas loin...

En s'amusant avec quelques mots clés, on se rend compte que beaucoup de recherches sont cycliques avec des explications plus ou moins évidentes. En tout cas, mesdames une recherche sur le mot "épilation" montre qu'il y a un relâchement certain chaque mois de décembre ! Pour finir, je me demande bien ce que peut signifier l'augmentation énorme des recherches sur le mot "nabot" au cours du mois en cours (septembre 2010) (authentique !)

dimanche 12 septembre 2010

Le cœur du Cœur

L'image que je présente a été obtenue depuis mon jardin et avec mon matériel d'amateur. C'est une vue de la zone centrale de la nébuleuse numérotée 1805 dans "l'Index Catalog of Nebulae and Clusters of Stars". IC1805, également appelée "Nébuleuse du Cœur" est située juste à côte de la "Nébuleuse de l’Âme" dans la région de Cassiopée (les astronomes sont de grands poètes !). Le centre de la nébuleuse contient un amas d'étoiles baptisé Melotte 15, du nom de son découvreur: Philibert Jacques Melotte.

Une nébuleuse diffuse est un gigantesque nuage de gaz très peu dense qui rayonne sous l'effet des radiations ultraviolettes intenses émises par des étoiles proches. Le gaz en question est très souvent de l'Hydrogène ionisé, on parle alors de région HII. Le gaz émet principalement une lumière rouge monochromatique, c'est-à-dire constituée d'une longueur d'onde bien précise et caractéristique des processus physiques mis en jeu. Il s'agit de la raie alpha de l'Hydrogène, ou Halpha.

Mis à part quelques rares cas, et bien qu'elles couvrent de larges régions du ciel, les nébuleuses diffuses ne sont pas visibles à l'œil nu, mais une petite lunette (66 mm de diamètre et 400 mm de focale) équipée d'une caméra CCD, suffit à capter et à accumuler ces photons interstellaires. Afin de renforcer le contraste de l'image, on équipe la caméra d'un filtre spécial qui sélectionne la longueur d'onde correspondant à l'Halpha (656,3 nm), en rejetant toute autre lumière. 

La photo ci-dessous est le résultat de l'accumulation de 38 images individuelles correspondant à un temps de pose total de 2h49. Durant tout ce temps, il faut faire en sorte que la lunette reste très précisément pointée vers la région du ciel observée, on utilise pour cela une deuxième caméra qui  asservit le guidage de la monture grâce à un logiciel informatique.

Située à environ 7500 Années Lumières de la Terre, l'image couvre une zone d'environ 200 Années Lumières. Les zones sombres qui  semblent sculpter la nébuleuse sont des amas de poussières qui absorbent la lumière. 


vendredi 3 septembre 2010

Quand Google fait du constructionnisme

En 1963, après un séjour en Europe, un certain Seymour Papert, mathématicien de son état, intègre le Massachusetts Institute of Technology (MIT) ou il créé un groupe de recherche sur l'épistémologie et l'apprentissage. Dans les années 60 Seymour Papert avait côtoyé Jean Piaget connu, pour ses travaux sur les mécanismes d'élaboration des connaissances qu'il nomme "constructivisme". Fort de cette inspiration, Seymour Papert élabore sa propre théorie de l'apprentissage qui débouchera sur le "constructionnisme". Tel que je le comprends, pour Piaget, la pensée s'élabore petit à petit suite à tout un ensemble d'expériences qui renvoient chacune quelques bribes d'informations sur le monde. Pour Papert, celui qui apprend, le fait d'autant mieux qu'il "construit" lui-même ses expériences et qu'il explique et discute celles-ci en groupe. On retrouve là les bases de la pédagogie Freinet, que j'ai déjà mentionné (ici) dans ce blog.

Pour mettre en œuvre ses  principes pédagogiques, Papert invente un langage informatique nommé LOGO. Le LOGO est un langage particulièrement logique et simple qui fut associé à un système graphique basée sur une Tortue se déplaçant sur un écran. Quand la Tortue se déplace, elle laisse une trace. Une succession de déplacements va donc permettre de réaliser une figure géométrique. Afin de construire ses connaissances, l'enfant est invité à résoudre des problèmes mathématiques sous une forme graphique en déplaçant la tortue à l'aide de commandes simples.  Par exemple, un cercle est représenté par une succession de petits déplacements intercalés avec de très légers changements de direction. L'idée est séduisante, car l'enfant construit petit à petit sa connaissance, à son rythme et en visualisant ce qu'il fait. Du même coup, il apprend la logique informatique avec un système très simple, la notion de boucles, par exemple apparait naturellement quand l'enfant réalise qu'une figure géométrique complexes n'est souvent qu'une répétition de déplacements élémentaires. L'informatique devient un outil pour réaliser des expériences qui seront autant de briques élémentaires dans l'élaboration de la connaissance.

Visiblement Seymour Papert, bien que victime d'un accident qui l'a laissé gravement handicapé, a laissé son empreinte au MIT qui a continué de travailler sur ces sujets à la jonction entre l'éducation et l'informatique. Actuellement, le MIT héberge un groupe nommé "Lifelong Kindergarten" dont l'une des devises est "Helping children grow up as creative thinkers", leur but est de "développer des technologies qui, dans l'esprit des blocs de constructions de notre enfance et de la peinture au doigt, étendent les limites de ce que les gens peuvent imaginer, créer et apprendre". Dans ce cadre, les chercheurs ont développé un système de programmation graphique, basé sur des "blocs" que l'on peut assembler d'une manière très simple de façon à élaborer un programme informatique complexe, un peu à la manière du LOGO et de sa tortue.

La programmation par blocs du MIT a été reprise par Google afin de créer un outil permettant à tout un chacun de développer des applications pour les téléphone fonctionnant avec le système Google Android, et ceci sans aucune connaissance préalable en informatique. Le résultat est étonnant, il est possible en assemblant quelques blocs représentés par des sortes de pièces de puzzle, de construire une application fonctionnelle relativement complexe.

Avec "App Inventor" Google fait le pari de l'intelligence ; plutôt que d'imposer aux développeurs potentiels de maitriser un langage et un environnement informatique complexe, ces derniers pourront concrétiser leurs idées de la manière la plus simple qui soit.  Google revendique le fait que cette initiative est dans la continuité des idées de Seymour Papert, et effectivement App Inventor est un excellent outil d'apprentissage. D'ailleurs qu'est ce qui pourrait motiver plus les enfants que la programmation de leur téléphone ?

Pour la petite histoire, Seymour Papert était parait-il un membre actif du cercle socialiste révolutionnaire lorsqu'il était à Londres. Comme quoi le MIT qu'il intégra 10 ans seulement après le Maccarthisme, n'était pas sectaire. Du coup c'est peut-être Google qui est devenu un peu révolutionnaire !

Un exemple d'assemblage de blocs dans App Inventor formant une application fonctionnelle.

jeudi 26 août 2010

Vers une science citoyenne

La science moderne est réputée être l'apanage des chercheurs professionnels, c'est-à-dire de personne ayant suivi de longues études concrétisées par un doctorat et ayant obtenus au moins un début de confiance de leurs pairs afin d'exercer une activité scientifique reconnue. En France, pour avoir le label de "scientifique" il faut appartenir à de grands organismes tels que le CNRS, l'Université, le CEA, l'INSERM, etc. Bien que le terme soit tombé en désuétude, on est bien encore dans un modèle ou le "Savant" détient la connaissance scientifique qu'il distille vers le public lorsqu'il le veut bien ou lorsqu'il ne peut pas faire autrement. Toutefois, ce modèle possède quelques exceptions et semble évoluer :

L'astronomie, par exemple est un domaine dans lequel les amateurs ont toujours apporté une contribution importante et reconnue. Par exemple, très récemment des impacts météoritiques ou cométaires sur la planète Jupiter, ont été observés par des astronomes amateurs  alors que ces phénomènes très fugitifs n'ont pas été vus par les professionnels. Les impacts étaient jusqu'alors supposés être très rares, il se pourrait qu'il soit beaucoup plus fréquents que ce que l'on imaginait (voir par exemple: http://www.planetary.org/blog/article/00002631/ ). Les astronomes amateurs ont l'avantage d'être nombreux et d'être répartis sur une grande portion de la planète. En permanence, le ciel est scruté par des personnes parfois très adroites et surtout très motivées. Malgré les programmes professionnels d'observation automatique du ciel et les prédictions régulières comme quoi, plus un seul corps céleste ne va bientôt plus échapper aux réseaux d'observations, le nombre d'astéroïdes ou de comètes découverts par les amateurs reste important.

En juillet 2008, trois amateurs ont découvert quasi-simultanément une nouvelle nébuleuse planétaire http://www.techno-science.net/?onglet=news&news=6857 c'est-à-dire les restes ténus de l'explosion d'une étoile. Celle-ci était complètement passée inaperçue par les professionnels alors qu'elle se trouve dans une région du ciel particulièrement riche. Cette découverte a été rendue possible par la mise à disposition des amateurs, de matériels d'excellente qualité, jusque là réservés aux professionnels (caméra, filtres à bande passante étroite, optique, monture, etc.) pour un prix abordable.
L'image ci dessous montre cette splendide nébuleuse, dite de la "bulle de savon" (crédit:  T. A. Rector/University of Alaska Anchorage, H. Schweiker/WIYN and NOAO/AURA/NSF) 

Paradoxalement la course aux télescopes géants ou spatiaux semble laisser tout un champ de recherche pour les amateurs qui exercent leur passion sans pression, sans contrainte et sans obligation de résultat. Parfois cela paye !

Dans un autre domaine, le projet SETI@home a été lancé en 1999 et fonctionne toujours. Il s'agit d'utiliser la puissance informatique disponible chez les particuliers pour analyser des signaux enregistrés par le radiotélescope géant d'Arecibo dans le but d'essayer de mettre en évidence un signal intelligent provenant d'un autre système solaire.  Par la suite, le projet BOINC a généralisé la méthode afin de permettre l'utilisation de PC individuels pour tout un ensemble d'applications allant des calculs de faisceaux pour le LHC au "docking" moléculaire afin de tenter de mettre au point de nouveaux médicaments, en passant par la modélisation climatique. Très récemment un pulsar radio a été découvert par trois "scientifiques citoyens" comme les nomme le responsable du projet EINSTEIN@home et fait l'objet d'une publication dans Science. Certes les "scientifiques citoyens" n'ont pas élaboré la méthode d'analyse, mais ils ont malgré tout contribué avec enthousiasme à cette découverte et ils vont certainement susciter un engouement pour que de nouvelles personnes mettent à disposition leurs ordinateurs personnels.

Le troisième exemple est lié à la mission spatiale Stardust dont j'ai déjà parlé dans ce blog. Stardust est cette sonde qui a collecté des poussières spatiales grâce à un astucieux système utilisant des blocs d'aérogel de silice et qui a pu les expédier sur Terre.  Le repérage et l'analyse des milliers d'impacts de poussière cométaires a pu se faire en laboratoire par les équipes scientifiques, alors que la deuxième partie du projet consistant à retrouver quelques dizaines de poussières provenant du milieu interstellaire a posé un problème majeur en raison du tout petit nombre d'impacts et du fait qu'il était très difficile d'automatiser la recherche. L'idée a été de faire appel au public, de mettre à sa disposition un logiciel lui permettant d'observer les images microscopiques et surtout de lui apprendre à reconnaitre les impacts. Des milliers de personnes se sont portées volontaires, certaine ont joué le jeu avec frénésie, inspectant visuellement des centaines de milliers d'images.  A ce jour 2  ou 3 impacts semblent être identifiés comme étant bien des poussières provenant du milieu interstellaire et les scientifiques professionnels réfléchissent au meilleur moyen de procéder à des analyses plus poussées sans risquer de les détruire. Si vous voulez contribuer à observer les images microscopiques de Stardust, vous pouvez le faire facilement en allant sur le site:
http://stardustathome.ssl.berkeley.edu/index.php - On se prend très vite au jeu…

Ces exemples montrent qu'il est possible d'associer les non-professionnels à la recherche scientifique, ce sont là d'excellentes initiatives qui ne peuvent que renforcer l'intérêt du public pour la science et que l'on pourrait sans doute étendre à d'autres domaines. Les américains l'ont compris, il reste un peu de chemin à faire en Europe pour faire sauter quelques verrous psychologiques.

samedi 21 août 2010

Message de Mercure

La sonde spatiale Messenger a été lancée en 2004 par la NASA. Sa destination finale est la planète Mercure. La trajectoire de Messenger afin de gagner l'orbite de Mercure est assez complexe puisqu'elle implique 15 orbites autour du Soleil, 1 survol de la Terre, 2 de Venus et 3 de Mercure. Au cours de ce périple de près de 8 milliards de kilomètres, Messenger a la possibilité d'observer l'espace dans des régions qui sont difficilement visibles depuis la Terre car noyées dans la lumière solaire. Messenger recherche ainsi d'hypothétiques  petits corps célestes appelés Vulcanoids.

Dernièrement Messenger a réalisé le cliché suivant:

Rien de bien particulier direz-vous ? Sauf peut-être les deux points brillants très proches qui ne sont autres que la Terre et la Lune. Sur cette Terre vivent 6.9 milliards d'Êtres Humains, certains d'entre eux sont capables d'envoyer une sonde spatiale vers Mercure pendant que d'autres meurent par dizaines de milliers, victimes de divers fléaux.

La Terre semble minuscule et pourtant cette photo est prise de sa proche banlieue, Mercure n'est en effet qu'à "deux  planètes" de la Terre. A l'échelle de l'Univers, nous ne sommes qu'une infime poussière…

Pour plus de détails, lire l'article: http://www.planetary.org/blog/article/00002626/  Je conseille d'ailleurs de suivre son auteur, Emily Lakdawalla, sur Twitter ou sur Facebook, ses écrits sont toujours passionnants. 

vendredi 20 août 2010

Étonnant Aérogel

Les aérogels sont des matériaux bien curieux ; il s'agit une sorte de gel, duquel on a extrait toute la matière liquide afin qu'il ne reste que le squelette solide emprisonnant un gaz (de l'air la plupart du temps). Les aérogels les plus communs sont fabriqués à base de silice et possèdent des propriétés étonnantes. Ils sont d'une extrême légèreté (3 mg / cm3 pour les plus légers) tout en étant très résistants ; un bloc supporte allègrement 1000 fois son propre poids. Ce sont d'excellents isolants thermiques, capables de bloquer la chaleur d'un chalumeau sur une épaisseur très faible. Étant essentiellement constitués d'air, leur indice de réfraction est très faible (proche de 1) ce qui fait que l'on distingue à peine leurs contours. La structure complexe de la silice diffuse fortement la lumière ce qui leur donne une teinte bleutée à peine perceptible. Un bloc d'aérogel de bas indice de réfraction a un aspect un peu fantomatique comme le montre l'image ci-dessous, provenant de la NASA.

En physique des particules il est important de pouvoir déterminer la nature des particules produites dans les collisions. Il y a pour cela plusieurs techniques. L'une d'entre elle repose sur l'utilisation de l'effet Cherenkov, c'est-à-dire la propriété qu'on les particules électriquement chargées d'émettre un rayonnement lumineux lorsqu'elles traversent un milieu à une vitesse supérieure à la vitesse de la lumière dans ce milieu (la vitesse de la lumière dans un milieu transparent est inférieure à la vitesse de la lumière dans le vide qui constitue une limite infranchissable, il n'y a donc pas de contradiction avec la Relativité). Les propriétés de la radiation Cherenkov dépendent de l'indice de réfraction du milieu et de la vitesse de la particule. En mesurant l'effet Cherenkov et en connaissant l'indice de réfraction du milieu, il est possible d'obtenir des indications sur la vitesse de la particule qui permettent de remonter à la masse de celle-ci et donc à sa nature.

L'aérogel, grâce à son indice de réfraction très faible, permet de réaliser des détecteurs à effet Cherenkov bien adaptés pour identifier les particules chargées (électrons, pions, kaons et protons) dans un domaine d'énergie intéressant. En 1996, dans l'expérience BaBar au Stanford Linear Accelerator Center (SLAC), j'ai eu l'occasion de travailler sur la mise au point d'un prototype de détecteur à effet Cherenkov (qui n'a finalement pas été retenu pour l'expérience). Pour ce détecteur, il nous fallait travailler avec des aérogels de très bas indices de réfraction (n = 1.008) qui avaient été fabriqués par le Jet Propulsion Laboratory (JPL) à Pasadena (Californie), seul capable à l'époque de produire ce type d'aérogel.

Le JPL est un laboratoire associé à la NASA et spécialiste de missions spatiales très pointues. Ce n'est que bien plus tard que j'ai compris pourquoi le JPL travaillait sur les aérogels de silice. En effet, en 1996 le JPL préparait la mission Stardust qui a été lancée en 1999 et dont le but était de récupérer des échantillons de poussières cométaires et interstellaires. La sonde Stardust devait passer dans la queue de la comète Wild 2 et tenter de capturer quelques poussières afin de les ramener sur Terre pour être analysées. Le problème était que la vitesse relative des particules cométaires par rapport à la sonde était de plus de 6 km/s. Capter des grains de poussières à cette vitesse sans les abimer était un défi à la mesure des propriétés remarquables des aérogels. En effet, le maillage de silice est tellement fin, tout en étant peu dense, qu'il agit comme une sorte de filet qui arrête les poussières de comète sur quelques centimètres. Les grains restent piégés dans l'aérogel qui a le bon goût d'être pratiquement transparent et donc de permettre un repérage visuel des impacts à l'aide d'un microscope.

La comète Wild 2 fut survolée en 2004. En 2006, la cassette contenant l'aérogel et son précieux chargement cosmique fut larguée et récupérée sur Terre. L'analyse des poussières se poursuit encore, j'aurai l'occasion d'y revenir dans un prochain article.

C'est ainsi que ce matériaux aux propriétés étonnantes fut au cœur d'expériences liées à la fois à l'infiniment petit et à l'infiniment grand.