n°14
Décembre
2010
CHEP 2010

CHEP (Computing in High Energy Physics) est une série de grandes conférences se déroulant tous les 18 mois sur un continent différent. Cette conférence, regroupant des physiciens et des informaticiens, permet de cibler les besoins de la recherche et de dessiner les évolutions futures. Cette année, la conférence qui a eu lieu à Taïpeï du 18 au 22 octobre, était organisée par le Centre de Calcul de l’Academia Sinica.

JPEG - 91.7 ko

Les sessions plénières et parallèles ont couvert un éventail de sujet allant des outils et du fonctionnement actuels du calcul à toutes les améliorations futures en logiciels et infrastructures. En voici un aperçu.

La montée en puissance du LHC

Le point principal de cette « session » a été l’arrivée des nouvelles données prises auprès du collisionneur LHC par les 4 expériences Alice, Atlas, CMS et LHCb, ainsi que le fonctionnement de toute la chaine de calcul pour parvenir aux résultats de physique à publier. Les systèmes « online » de prise de données ont fonctionné et l’efficacité d’utilisation des données prises par les détecteurs a dépassé les 90%. Le traitement de celles-ci a permis d’obtenir des résultats de physique très rapidement, parfois en moins d’une semaine. Les infrastructures de calcul ont été intensivement sollicitées et ont fonctionné bien au-delà du design initial. De manière générale, il a été reconnu que le réseau est la ressource disponible la plus fiable, même si, étant donné sa taille, l’infrastructure est difficile à maintenir disponible à 100%.

CPU « manycores »

Comment exploiter le potentiel des nouveaux CPU (Sverre Jarp, Roger Goff…) ? Les CPU sont composés d’un nombre croissant de cœurs qui comportent des unités de calculs complexes et fonctionnant de façon de plus en plus vectorielle. Un changement de traitement est nécessaire pour permettre d’en exploiter tout le potentiel : il faut « penser parallèle » aussi bien pour l’organisation des données que pour celles des tâches à accomplir. Il faut en effet penser les futures applications de façon à ce qu’elles puissent fonctionner le plus possible en parallèle et qu’elles s’adaptent naturellement aux améliorations des futurs systèmes. La physique des hautes énergies présente un avantage : les données exhibent déjà un « pattern parallèle ». Elles sont en effet classées par événements indépendants, traces, vertex,etc. Des essais de parallélisation des programmes ont été présentés dans les sessions parallèles. Ils montrent des résultats prometteurs lorsqu’ils sont appliqués à GEANT4 ou à des logiciels d’expérience.

Calcul sur les nuages

Beaucoup d’activités s’orientent vers le « cloud computing », c’est à dire vers une infrastructure abstraite du point de vue de l’utilisateur mais sur laquelle il trouve les ressources de calcul, de stockage ou de bande passante sur une plateforme qui répond à sa requête particulière. Il existe des nuages commerciaux et des nuages publics et leur utilisation est déjà rentrée dans sa phase de production bien qu’ils ne remplacent pas le calcul sur grille.

L’électronique “green”

Les supports de stockage sont actuellement les plus gros consommateurs d’énergie parmi les composants éléctroniques d’un centre de calcul. Ils génèrent plus du quart des émissions de CO2 attribuées à la technologie de l’information. Des présentations d’entreprises commerciales ont montré les bénéfices des SSD (Solid State Drives). Ceux-ci ont en effet l’avantage d’un petit volume pour une efficacité accrue. Des tests ont montré leur haute performance en terme de lecture/écriture, et leur grande fiabilité. L’accent a été en outre mis sur leur composante « verte ». Les SSD n’ayant pas de composants mécaniques, ils consomment moins d’énergie et émettent moins de chaleur. Bien que leur prix est à ce jour relativement élevé, il devrait progressivement diminuer et les SSD pourraient bien à terme remplacer les types de stockage d’informations utilisés jusqu’à présent (HDD par exemple).

D’autres sujets ont été traités, tels les nouveaux challenges de communication et d’accès à la science par le public, la préservation et la possibilité d’exploitation future des données des expériences déjà arrêtées. Pour conclure, les participants se sont donnés rendez-vous dans dix-huit mois sur le continent américain, à New-York.

Ghita Rahal

Interview

CCRI

Conférence

CHEP 2010
Rechercher
     

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Virginie Dutruel, Sébastien Grégoire, Eric Legay, Gaëlle Shifrin et Tiffany Thome

logo CCIN2P3
© CCIN2P3