n°25
Octobre
2013
Nobel de Physique : une récompense aussi pour l’informatique du LHC
Collision "candidate" pour signer la présence d’un boson de Higgs. (détecteur Atlas, mai. 2012) ©ATLAS/CERN

Fairouz Malek, responsable scientifique du projet LCG-France, revient sur la place de l’informatique dans la découverte du boson de Higgs, récompensée par le Nobel de physique 2013.

- En quoi l’informatique a t-elle contribué à la découverte du boson de Higgs ?

Laissez-moi d’abord vous raconter comment on produit et on détecte un Boson « BEH » (Brout-Englert-Higgs), communément appelé boson de « Higgs » : au LHC, près de 40 millions de paquets de particules (1011 protons) sont accélérés à, presque, la vitesse de la lumière et entrent en collision toutes les secondes. La théorie nous dit qu’on ne produirait, à priori, qu’un seul boson de « Higgs » toutes les 1010 collisions (10 milliards). D’autre part, le boson de « Higgs » n’est pas une particule stable car elle se désintègre immédiatement en plusieurs particules comme le boson Z, le photon (γ), le W etc. Seuls 3% des désintégrations du « Higgs » vont en Z contre 3‰ qui vont en photons. Si nous avions un détecteur parfait (acceptance de 100%, efficacité de détection des particules de 100%, identification parfaite des particules etc.), alors on détecterait effectivement dans ATLAS ou CMS, 1 boson de « Higgs » qui se désintègre en 2 γ ou en 2 Z toutes les 1013 collisions. En réalité, le taux de détection est très faible. Pour exemple dans ATLAS, sur les 2 ans de prise de données (2011 et 2012) où l’on a produit des millions de particules dont environ 500 000 bosons de « Higgs », nous n’en avons détectés que quelques centaines se désintégrant en 2 γ (à comparer aux quelques milliers prévus si le détecteur avait été parfait). On peut facilement comprendre que pour illustrer ces recherches, on montre souvent cette image d’une aiguille dans une énorme botte de foin ! Qui dit énorme botte de foin, dit énorme quantité de données à traiter, à défricher, à nettoyer et à analyser.

Revenons à l’informatique : la chaine naturelle de la production scientifique en physique des particules et plus particulièrement au LHC est celle-ci : collisions dans le LHC, détection par les instruments (les 4 expériences LHC), traitement électronique puis informatique de proximité (au CERN), envoi des données aux divers centres de calculs internationaux (environ une dizaine dont le CC-IN2P3) pour calibration et reconstruction, analyse dans des centres de calculs appropriés (environ une centaine dont une dizaine en France). En parallèle, et même avant les prises de données, l’infrastructure de calcul est utilisée aussi pour générer un important volume de données (ex : générateurs Pythia, AlpGen, etc.) qui seront simulées dans les conditions réelles de l’instrument (avec Geant). Cette phase est importante pour comprendre l’instrument, le calibrer et comparer les données réelles aux modèles théoriques. Et finalement, après une infinité de réunions pour exploiter, vérifier et valider les résultats : LA publication. Cette chaine peut prendre 6 mois ou 2 ans selon ce qu’on cherche.

L’informatique intervient partout, à tous les niveaux, même dans le contrôle de la machine LHC et en particulier pour guider, contraindre et délivrer les faisceaux de particules. Ce qui est visible et facile à expliquer, c’est la grande infrastructure de calcul dite W-LCG où la technologie de grille s’est imposée. Ce qui est moins visible mais extrêmement important, c’est le "software" de chacune des expériences LHC qui, pour chacune d’elles exige des milliers de lignes de code, qui doit évoluer constamment au gré des technologies et des modèles de calcul mis à jour pour parfaire le calcul. C’est le résultat de décennies de développements par une très grande communauté. In fine, le physicien interprète les données reconstruites grâce à des outils informatiques (Root, Geant etc.), encore eux. Derrière le calcul scientifique, l’informatique et les grandes infrastructures qui les supportent, il est important de comprendre qu’il y a des êtres humains sans lesquels il n’y aurait pas eu de découverte.

- 10 ans après le démarrage de la grille, quel regard portez-vous sur cette aventure ?

Un mot et un seul : succès ! Prétendre le contraindre serait malhonnête, pire malveillant. Le mérite revient à la persévérance de tous. Mais ça n’aurait jamais été une réussite si le but était vague comme par exemple "juste faire de la grille" parce que c’est à la mode de l’époque ! Le but principal, c’était UNE découverte, DES découvertes... C’est aussi le but "nominal" du LHC qu’on a toujours appelé : la machine de découverte. La seule leçon à retenir de la grille de calcul après 10 ans de son existence, c’est que nous l’avions conçue pour réussir. CQFD !

- Pourtant, la grille n’a pas toujours fait l’unanimité…

Cette question ne se pose même pas en physique des particules. W-LCG a été conçue pour cette discipline, très exigeante technologiquement, très libre dans ses choix et ses conceptions et surtout avec un but "clair" : la découverte attendue. Il fallait exiger du calcul au LHC ce qu’on exige des détecteurs et des physiciens : la performance, pousser le bouchon le plus loin pour arriver au meilleur ! W-LCG fait l’unanimité dans ses performances et ses résultats. Il n’y a aucun doute. W-LCG continuera à pousser le bouchon pour « mieux faire ». La physique des particules est une discipline de pointe et de pointilleux.

Vouloir démocratiser la grille de calcul est louable mais on ne peut pas obliger des communautés d’utilisateurs d’autres disciplines à l’utiliser si le besoin et la demande ne vient pas d’eux et surtout s’ils n’y apportent aucune contribution « technique » pour leurs propres besoins. Avec la grille, on a voulu faire un parallèle avec le web né au CERN mais on ne peut pas imposer à l’histoire 2 fois la même réussite ! D’autre part, le web s’est imposé de lui-même au "public". La grille de calcul (de la physique des particules), un peu lourde de conception et d’utilisation n’est pas transposable au public et encore moins à des scientifiques qui n’ont pas les mêmes outils de travail, pire les même objectifs et exigences.

- Qu’est ce qui a fait que ça a fonctionné ?

Le même rêve : UNE découverte au LHC.

Mais pas seulement. Dans les années 90, lorsque je préparais ma thèse de doctorat, je faisais partie d’une collaboration CERN de 20 personnes. Lorsque j’ai été recrutée au CNRS, j’ai adhéré à une collaboration CERN de 80 personnes. Au LHC, nous sommes des milliers ! Et nous savons travailler ensemble par tradition.

Construire une grille à grande échelle, avant d’être un défi technologique, c’était un enjeu collaboratif. Il fallait reproduire en informatique ce qui se fait déjà avec succès, en instrumentation et en ingénierie pour construire les grands détecteurs installés sur les sites des expériences auprès du LHC. Cela a fonctionné parce que tous les instituts, universités et laboratoires de par le monde ont contribué et parce que le CERN a pleinement joué son rôle de coordination.

- Maintenant que le boson est trouvé (et reconnu via le Nobel), que reste t-il à trouver ? Quelle est l’avenir de LCG ?

Le Nobel de Physique 2013 a été attribué à 2 théoriciens (Englert et Higgs, Brout étant décédé en 2011) pour la découverte théorique du mécanisme contribuant à notre compréhension de l’origine de la masse des particules. Découverte confirmée par les expériences ATLAS et CMS, l’été 2012. Englert et Higgs ont contribué à la compréhension d’une partie des énigmes qui sont traquées par les physiciens des particules. A ce jour, les théories qui prédisent l’existence des particules supersymétriques, les théories qui prévoient des dimensions supplémentaires dans lesquelles le graviton (entre autres) se propagerait, les théories (ou les observations spatiales) qui prédisent une asymétrie matière anti-matière, les observations du ciel qui annoncent l’existence d’une matière noire qui formerait un halo autour de notre galaxie etc. ne sont pas confirmées. A côté de ça, notre compréhension des propriétés du plasma de quarks et de gluons et son existence bien avant-même la formation des atomes et des galaxies dans l’univers, est encore loin d’être complète. Le LHC a été conçu pour explorer des domaines en énergie où certaines de ces théories peuvent être explorées par ATLAS et CMS mais aussi par LHCb et ALICE. De nouvelles découvertes en perspectives ? On y croit très fortement ! Avec le redémarrage du LHC à une énergie dans le centre de masse de près de 14 TeV à partir de 2015, on va explorer au-delà de ce qu’on sait aujourd’hui : le modèle standard confirmé par la découverte du boson de « Higgs » de 126 GeV !

Plus d’énergie, plus de section efficace de production des phénomènes attendus, plus de bruit de fond ..... Plus de données, plus de calcul, plus d’analyse. LCG a de beaux jours devant lui pourvu que la quantité de ressources mises à disposition par les agences de financement (le CNRS et le CEA pour la France) soient à la hauteur des attentes des expériences LHC, des physiciens, des « softeux » et des « calculeux » !

Fairouz MALEK