n°1
Juillet
2008
Test “grandeur nature” des opérations de calcul scientifique du LHC

LHC. Trois lettres qui résonnent dans les couloirs de l’IN2P3. Et pour cause, le plus grand accélérateur de particules du monde (ou Large Hadron Collider) va être mis en production cet été.

Ce projet gigantesque, auquel collabore une dizaine de laboratoires de l’Institut et quelques milliers de personnes dans le monde, a pour objectif ambitieux rien de moins que de tester le Modèle Standard cher aux physiciens et à terme de mieux comprendre l’origine de l’Univers. Autour de cet accélérateur de 27 kilomètres de circonférence installé au Cern, à une centaine de mètres sous la frontière franco-suisse, ont été installés quatre détecteurs (ALICE, ATLAS, CMS et LHCb) qui vont recueillir quelque 15 millions de gigaoctets de données par an.

Afin de stocker et de traiter ces données, la grille de calcul W-LCG (Worldwide LHC Computing Grid) a été déployée dans environ 200 pays situés en Europe, en Asie et en Amérique, afin d’obtenir une infrastructure internationale de traitement informatique qui intègre des milliers d’ordinateurs et de ressources de stockage. Cette infrastructure est basée sur celle de la grille pluridisciplinaire EGEE (Enabling Grids for E-SciencE), actuellement la plus grande grille au monde.

Le premier centre de W-LCG, désigné sous le nom de Tier 0 et installé au Cern, acquerra toutes les données générées par les détecteurs et réalisera une sauvegarde. Il transmettra ensuite les informations aux 11 grands centres nationaux désignés comme Tier 1, dont le Centre de Calcul de l’IN2P3/CNRS(CC-IN2P3), à Lyon, fait partie. Ces Tiers 1, disponibles 24 heures sur 24, assureront la pérennité des données et réaliseront un premier traitement avant de les transmettre aux Tier 2 et 3, répartis dans tous les pays, où se fera l’analyse physique proprement dite.

Pour mener à bien cette mission, le CC-IN2P3 dispose actuellement d’un système de 8200 processeurs et d’une capacité de stockage de 8 millions de gigaoctets, constituée de disques durs et de bandes magnétiques. Cette capacité sera doublée annuellement pendant les années à venir. Les laboratoires IN2P3, déjà fortement impliqués dans la construction des détecteurs des expériences LHC, déploient eux activement des fermes de calcul locales ou régionales ouvertes sur la grille LCG. C’est ainsi que plusieurs centres de traitement de données du LHC ont été créés et sont exploités par 11 laboratoires IN2P3/CNRS en France [1]. 2008 sera une année de référence qui permettra de valider en grandeur nature les modèles élaborés par les physiciens des particules mais ce n’est que le début d’une montée en puissance soutenue pendant plusieurs années.

Identifier les blocages

Ainsi, afin de vérifier le degré de maturité et de disponibilité de l’infrastructure informatique pour le démarrage du LHC, un exercice entrepris avec les données simulées et de manière concomitante avec les quatre expériences LHC en associant tous les sites de la grille, a été programmé. Cet exercice dont l’acronyme est CCRC’08 pour « Common Computing Readiness Challenge » avait pour objet l’identification des éventuels blocages et la mise en place de solutions adaptées. Ces tests sont complémentaires aux divers tests prévus par chacune des expériences dans le cadre de leur programme de validation avant le début de la prise de données.

Ainsi, entre février et mai 2008, plusieurs exercices ont eu lieu : des transferts de données entre les détecteurs et le centre de calcul du Tier 0 au CERN, site de collecte de données réelles, et entre le Tier 0 et les 11 sites de niveau 1 localisés sur 3 continents ont été effectués. Les échanges de données entre sites de niveau 1 et de niveau 2 ont aussi été réalisés avec succès. Les débits observés pendant ces divers exercices ont montré la capacité de l’infrastructure actuelle à satisfaire simultanément les besoins des quatre expériences LHC avec une marge suffisante pour absorber les éventuels ralentissements. A titre d’exemple, l’expérience CMS a montré un volume de données échangées allant jusqu’à 100 TO par jour entre plus de 50 sites distribués partout dans le globe. A leur tour, des données de l’expérience ATLAS ont été transférées depuis le Tier 0 au CERN jusqu’aux 10 Tiers 1. ATLAS à un débit allant jusqu’à 1 Go/sec, c’est-à-dire environ 60% plus élevé que le débit nominal nécessaire pour la première année de prise de données.

Jusqu’à 200 000 tâches exécutées par jour

En plus des exercices de transfert de données, plusieurs campagnes de traitement des données ont été réalisées. Il s’agissait de valider la capacité des différents sites de la grille W-LCG à réaliser les processus de reconstruction des données brutes, de réduction et de sélection de données ainsi que de génération de données à partir de la simulation du comportement des détecteurs. L’infrastructure informatique a montré sa capacité à traiter jusqu’à 200 000 tâches exécutées par jour sur plus de 50 sites utilisés par l’expérience CMS.

Pour les centres opérateurs français du calcul LHC, la campagne de test du premier semestre 2008 a permis de rendre compte de l’efficacité des transferts de données, de souligner les éventuels blocages, des problèmes inhérents à la complexité du modèle de grille et à la complexité des systèmes de stockage de données mis en œuvre. Cette campagne de validation et les enseignements qui en résultent représentent donc un pas de plus dans la préparation au démarrage imminent du LHC, qui délivrera alors les données, en grande quantité et sur une longue période.

AUTEURS COLLECTIFS (LCG-FRANCE)

[1] Les références des laboratoires opérant un site de niveau 2 ou 3 sont : LAL Orsay, LLR, LPNHE Paris, IPN Orsay, Subatech Nantes, LPC Clermont, LPSC Grenoble, LAPP Annecy, IPN Lyon, CPPM, IPHC.