Quels ont été les temps forts au CC-IN2P3 en 2008 ?
L’événement le plus important en 2008 pour le CC-IN2P3 a été lorsque l’Université Claude Bernard Lyon 1 a donné son accord pour attribuer au CNRS la portion de terrain nécessaire à la construction de la nouvelle salle informatique. Cette extension qui entrera en service fin 2010 est absolument indispensable pour absorber la forte croissance actuelle du centre, essentiellement liée au projet LHC. Grâce à cette attribution, l’extension du CC-IN2P3 est donc désormais lancée.
Un autre événement important est l’affectation d’un Chargé de Recherche STII au CC-IN2P3. Autour de lui va se constituer, petit à petit, une équipe de recherche en informatique essentiellement tournée vers les Grilles. Cette embauche est parfaitement cohérente avec l’une des missions de l’Institut des Grilles du CNRS qui vise à rapprocher la communauté des Grilles de production avec celle des Grille de recherche.
Bien entendu, une grande partie des activités du CC-IN2P3 a été consacrée au développement de l’infrastructure matérielle et logicielle pour le LHC en phase avec le projet LCG-France. Un investissement très important a été réalisé afin de faire évoluer l’architecture du réseau de la salle informatique du CC-IN2P3.
Comment a été gérée l’arrivée des données du LHC ?
Malheureusement, l’incident survenu sur le LHC a fait que très peu de données ont pu être acquises par les détecteurs avant la panne. Il s’agissait d’ailleurs de données de bruit de fond puisqu’aucune collision n’a eu lieu. Tout a parfaitement fonctionné mais le fait de recevoir les données au CC-IN2P3 n’était pas un challenge.
Les données d’ATLAS ont été répliquées sans incidents vers les Tiers-2 et les Tiers-3 du « nuage » français c’est-à-dire : la France, le Japon, la Chine et la Roumanie. Les données de CMS ont également été distribuées conformément au modèle de calcul de l’expérience.
En mai et juin a eu lieu un test combiné du calcul des expériences LHC (CCRC08). Il s’agissait d’une répétition générale afin de vérifier les performances du système informatique de LCG. Les résultats du CCRC08 lui-même ont été très bons ; par contre, des tests ultérieurs de retraitement des données ont mis en évidence des points nécessitant des améliorations sur lesquelles le projet LCG dans son ensemble travaille.
Excepté le LHC, quels sont les projets les plus importants du CC-IN2P3 ?
Le CC-IN2P3 supporte l’ensemble des activités menées à l’IN2P3 et à l’Irfu. La structure en projet de LCG-France permet justement de bien séparer les budgets LHC et non-LHC ce qui préserve les investissements en calcul hors LHC. Parmi les plus gros utilisateurs du CC-IN2P3 figurent les expériences BaBar et D0, ceci est très satisfaisant car cela montre que le CC-IN2P3 remplit parfaitement son rôle pour des expériences qui fournissent de très nombreux résultats scientifiques.
Le domaine des astroparticules est lui aussi très actif, on peut citer le rôle de Tier-0 du CC-IN2P3 pour AUGER et HESS ainsi que l’implication forte au niveau des bases de données d’ANTARES et d’OPERA. La mise en service très rapide du satellite GLAST / Fermi va se concrétiser très bientôt par une utilisation intensive des ressources du CC-IN2P3.
Ce ne sont là que quelques exemples pris dans la longue liste des expériences qui bénéficient du CC-IN2P3, on pourrait également citer la QCD sur réseau, NEMO, PLANCK, etc.
Au niveau de l’ouverture du CC-IN2P3, je tiens à souligner la création d’une grille régionale Rhône-Alpes en collaboration avec le projet CIRA (Calcul Intensif en Rhône Alpes) ainsi que la mise en place en collaboration avec le CINES, d’un projet de mise en ligne et d’archivage pérennes des données SHS. Ce projet s’inscrit dans le cadre du Très Grand Équipement ADONIS.
Quels services ont été développés cette année ?
Le CC-IN2P3 doit jouer un rôle également au niveau des laboratoires. La mise en place de services mutualisés pour l’IN2P3 et l’Irfu est une priorité forte. Ceci se traduit par l’achat centralisé de licences pour des logiciels coûteux déployés dans les laboratoires (GPFS, LabView, Mathlab, etc.). Nous proposons aussi un système de sauvegarde centralisée qui décharge fortement les services informatiques des laboratoires. Enfin, l’APC a migré récemment tout son mail sur les serveurs du CC-IN2P3, rejoignant ainsi quelques autres unités. Cet effort va se poursuivre et se développer dans le futur.
Quelle stratégie va adopter le CC-IN2P3 pour l’année 2009 ?
Le retard lié à l’incident du LHC oblige à revoir la stratégie de déploiement des ressources. Nous allons profiter de ce malheureux délai pour renforcer tous les points faibles et augmenter les redondances et les capacités de reprises après incidents. En particulier, un investissement conséquent va être fait pour améliorer les performances et la robustesse du système de stockage AFS.
Les limites énergétiques de la salle informatique nous obligent à traquer le moindre kW de puissance gaspillé. L’arrivée fin janvier de 252 serveurs IBM i-Dataplex montés dans des racks refroidis par eau est une innovation importante pour le CC-IN2P3. Les tests de ce type de matériel vont conditionner l’évolution future du parc de machines du CC-IN2P3.
Enfin, l’ouverture vers la région et l’implantation dans le milieu universitaire lyonnais, tout en préservant notre cœur d’activité pour le support de la physique à l’IN2P3 et à l’Irfu, est un élément clé de la stratégie future du CC-IN2P3. A l’heure ou l’organisation de la recherche en France subit de profonds changements, la réussite de cette ouverture est probablement une question de survie.
Propos recueillis par Gaëlle SHIFRIN