n°30
Février
2015
"Nous ne pouvons pas nous permettre de ne pas construire des passerelles vers les mondes du HPC et du Cloud"

Laurent Duflot, responsable scientifique de LCG-France

- Pouvez-nous rappeler brièvement votre parcours ?

Je suis un physicien en physique des particules à l’IN2P3 depuis 1993 et j’ai participé à trois générations de “grosses expériences” de la communauté (ALEPH, DØ et ATLAS) sur la physique de précision du Modèle Standard puis les recherches de nouvelles particules. J’ai également travaillé sur les aspects software et computing de notre discipline. Avant ma thèse, j’ai travaillé un an sur le portage de GEANT (le logiciel de simulation de détecteur) sur une machine parallèle. Il y a une dizaine d’années, j’ai été un des beta-testers de la grille de données de DØ appelée SAM-GRID qui a ensuite été utilisée dans la production d’événements simulés pour l’expérience, surtout sur l’infrastructure de grille américaine OSG mais aussi en Europe avec des outils LCG (LHC Computing Grid). J’ai poursuivi en explorant l’analyse DØ sur la grille LCG. Ces expérimentations m’ont permis à mon arrivée dans ATLAS de porter un logiciel gourmand en temps de calcul sur la grille LCG (à l’époque il n’y avait pas d’outils faciles d’accès pour les utilisateurs). J’ai donc été tout au long de ma carrière sensible à l’importance du software et du computing pour obtenir des résultats de physique dans notre discipline.

- Quel est précisément votre rôle au sein du projet LCG-France ?

Je suis le coordinateur scientifique de LCG-France depuis le premier janvier et à ce titre je représente la France dans certaines instances de la collaboration WLCG qui regroupe des représentants des sites de calcul pour les quatre expériences du LHC et des représentants des expériences. Un des objectifs concrets de LCG-France est de maintenir la contribution française au calcul pour le LHC à une part de 8 à 10 % du calcul mondial. Il faut pour cela adapter au mieux nos moyens aux besoins exprimés par les expériences et donc en particulier coordonner les évolutions des sites français : Tier1/Tier2 au CC-IN2P3 et Tier2/Tier3 dans nos laboratoires. Pour cela, je collabore étroitement avec la coordinatrice technique Catherine Biscarat. Nous avons la chance d’avoir collaboré ensemble dans l’expérience D0 lorsque nous étions tous deux sur le site de Fermilab, elle travaillant sur la simulation et moi comme coordinateur du software.

Les opérations au jour le jour de la grille LCG sont très prenantes mais il nous faut prendre le temps de réfléchir aux évolutions futures dans notre domaine. Catherine et moi-même encourageons la participation des français dans les groupes de travail sur les outils de la grille, aux décisions stratégiques sur les évolutions majeures et à la veille technologique. Il nous faut également nous insérer dans le contexte du calcul scientifique en France et en particulier des nouvelles politiques de calcul du ministère et du CNRS. J’ai repris le flambeau de la coordination scientifique qui a été tenu en main par Fairouz Malek depuis la création de LCG-France. Fairouz a une profonde connaissance du projet et de son histoire et prendre sa succession est un challenge !

- Le LHC devrait être remis en production au printemps. Qu’est-ce qui va changer dans cette nouvelle phase de prise de données ?

Le LHC va redémarrer à plus haute énergie, 13 TeV au lieu de 8 TeV. Cela permettra par exemple de produire beaucoup plus de bosons de Higgs et donc de passer d’un mode « découverte et premières explorations de ses propriétés » à un mode d’études plus approfondies. Ce nouveau domaine d’énergie ouvre aussi la voie à des découvertes de nouvelles particules qui auraient été auparavant inaccessibles. Le démarrage sera donc un moment de grande excitation mais aussi de stress car tout doit marcher très vite, du détecteur à l’analyse de données finale. La pression est donc aussi mise sur le calcul : simulation et reconstruction des données, distribution à travers la grille, cycles d’analyse rapide. D’ores et déjà, les productions de simulation des expériences dans les configurations nominales montent en puissance.

- Quels sont les prochains défis à relever en matière d’informatique pour le LHC ?

Lors de l’arrêt prolongé de la machine, les expériences ont travaillé sur leur software (optimisation et adaptation au nouveau détecteur de la simulation et de la reconstruction, format d’analyse de données, etc.) mais aussi sur leur modèle de calcul. La hiérarchie assez rigide Tier1/2/3 imaginée avant le démarrage du LHC pour assurer un calcul « bien orchestré » laisse la place à un modèle plus dynamique. Si le rôle des Tier1 reste central, les meilleurs Tier2 doivent démontrer une grande disponibilité et une interconnexion avec les Tiers2 et Tiers1 « voisins » nettement plus performante que dans le modèle initial. Le placement des données sur la grille devient plus dynamique et basé sur la « popularité » des données. Ces évolutions doivent se poursuivre pendant la prise de données tout en garantissant un système suffisamment robuste pour résister au « rush » sur les données. Si en 2015, la quantité de données prévue est comparable à celle prise lors du Run1 du LHC, le volume de données va vite croître et il faut être prêt. Dans le même temps, WLCG étudie comment simplifier les opérations de la grille et des sites : diminution du nombre de services ou des protocoles à supporter, convergence des expériences vers des solutions communes, installation et support plus faciles, etc.

L’informatique du LHC doit aussi se placer dans le contexte global du calcul scientifique dans le monde. Le calcul sur super-calculateur haute performance (HPC) est un gros acteur du calcul scientifique, en général développé pour d’autres problématiques que les nôtres (machines très puissantes avec beaucoup de mémoire mais pas forcément construites pour des échanges de données aussi importants que les nôtres). Le « cloud computing » s’est énormément développé dans l’industrie et prend son envol dans le domaine du calcul scientifique. Même si la grille dédiée reste au coeur du calcul pour le LHC, nos besoins sont tels que nous ne pouvons pas nous permettre de ne pas construire des passerelles vers les mondes du HPC et du Cloud.

- Enfin, le Boson de Higgs découvert, quelles sont les prochaines découvertes pressenties dans le cadre des expériences du LHC ?

La montée en énergie offre la possibilité de produire des particules trop massives pour être produites jusqu’ici. Il existe donc de réelles possibilités de découverte si la nature nous fait ce plaisir ! Je pense en particulier aux particules prédites dans le cadre des théories supersymétriques. Ces théories sont séduisantes car elles permettent de combler quelques failles du Modèle Standard de la physique des particules et de proposer une particule candidate pour la matière noire de l’univers. Pour colmater les brèches de manière théoriquement satisfaisantes, certaines des particules supersymétriques devraient avoir une masse inférieure à quelques TeV et donc seraient dans le domaine accessible au LHC. La découverte de particules supersymétriques serait une avancée majeure pour la discipline !

PROPOS RECUEILLIS PAR GAELLE SHIFRIN