imprimer
n°8
Octobre
2009
Astroparticule : vers une évolution des infrastructures de calcul
En raison de sa diversité, le calcul en astroparticule présente quelques spécificités. La nature des données à étudier est très variée en fonction des projets. Les traitements peuvent être effectués à partir de données temporelles (Virgo, Lisa-Pathfinder…)., ou bien à partir de cartes du ciel (Planck,..). Les outils et logiciels d’analyse de données sont alors très différents. Mais l’ensemble de ces expériences nécessitent des simulations de plus en plus lourdes car les détecteurs sont de plus en plus complexes.

Les expériences telles que la physique des rayons cosmiques de hautes ou d’ultra-hautes énergies (Auger, Auger Nord, EUSO..), la cosmologie (Planck), la recherche d’ondes gravitationnelles (LISA, Virgo,...), ou encore l’astronomie gamma (HESS, Cherenkov Telescope Array) produisent de plus en plus de données. Les projets astroparticules tels que le projet LSST (Large Synoptic Survey Telescope), confirme ce besoin croissant. Nous arrivons en astroparticule à des problématiques en terme de besoin de calcul et de volume de stockage proches de celles des expériences de physique des particules.

Par exemple, en ce qui concerne la mission spatiale Planck dont le satellite a été lancé au mois de mai 2009, les simulations demandent un accès performant en lecture/écriture sur les disques. Le système (...)

lire la suite

Infrastructure

La mécanique des fluides appliquée au CC-IN2P3

Le Centre de Calcul de l’IN2P3, initialement appelé CCPN, a été créé au tout début des années soixante par trois laboratoires (Louis Le Prince Ringuet, Collège de France et celui de l’université anciennement Paris VI). Il était à l’origine installé sur le campus de Jussieu, à Paris (sur le site de la Halle aux vins) puis fut transféré en 1986 sur le domaine scientifique de la Doua (à Villeurbanne). En plus de vingt ans, la salle machine du CC-IN2P3 a beaucoup évolué, tant sur le plan de l’infrastructure informatique, électrique ou climatique, en particulier ces trois dernières années. Petit tour d’horizon des travaux effectués. En 1986, lors de son implantation à Villeurbanne, le nouveau bâtiment intégrait l’infrastructure de l’époque, c’est-à-dire un mainframe IBM 3090 (voir photo ci-dessus), une imposante machine refroidie alors par eau qui permettait de chauffer les locaux via la récupération de la chaleur produite en salle machine. Avec l’évolution de l’informatique et des besoins des expériences de physique, le mainframe a été abandonné en 1997 et remplacé par une (...)

lire la suite

Pratique

Xtrem programming et idées recues

L’extreme programming (ou XP) est une des méthodes agile dont le nom est globalement le plus connu. Mais peu en connaissent les fondements et les principes. La principale source de méprise provient du nom même de la méthode souvent associée avec des notions de désorganisation, d’urgence, de manque de documentation, de code aride et illisible. En clair, extrême est associé à la notion risquée. En fait, le nom extreme programming vient du fait que les activités de programmation sont au centre de la méthode et que les pratiques qui font le succès des projets sont poussées à leur extrême. Les tests permettent de détecter rapidement les défauts ? Écrivons les tests en premier et automatisons-les ! Il faut privilégier les livraisons fréquentes ? Adoptons un développement avec les cycles le plus court possible. Le client peut être un élément clé du développement ? Intégrons-le à l’équipe de réalisation … Toutes ces nouvelles contraintes ne s’ajoutent pas aux contraintes des méthodes logicielles traditionnelles, elles les remplacent. L’idée n’est pas d’alourdir le formalisme existant, c’est de ne garder que les points (...)

lire la suite

Histoire

Stockage : les premières librairies robotisées du CC-IN2P3 détrônées

Il y a quelques jours, la dernière librairie de stockage StorageTek Powderhorn 9310 a été définitivement arrêtée au CC-IN2P3, une petite révolution à l’échelle du centre. Ce système de stockage avait été choisi en 1991 alors que des opérateurs étaient encore chargés d’installer les bandes sur les lecteurs à la demande des utilisateurs. Cette méthode induisait un temps de réponse long (environ 5 minutes) et certaines contraintes qui poussaient par exemple l’utilisateur à faire une copie en prévision de la nuit, pendant laquelle aucune intervention humaine n’était possible. Avec les librairies 9310, c’est tout le système de stockage du CC-IN2P3 qui allait être bouleversé. Trois puis bientôt six librairies 9310 furent installées et interconnectées dans la salle machine du centre, soit une capacité totale de 36 000 cartouches magnétiques. Des cartouches d’une capacité de 200 Mo il y a plus de dix ans, qui ont peu à peu évolué jusqu’à stocker 200 Go de données dès début 2003. Ces librairies, ou silos, de (...)

lire la suite

Collaboratif

Point sur les webinaires

Depuis le mois d’avril de cette année, le CCRI organise des « webinaires », des séminaires bien réels diffusés via internet à une salle d’audience virtuelle qui se compose à la fois de salles équipées d’un matériel de visioconférences et de spectateurs qui se connectent à partir de leur poste de travail sur un flux de données diffusées à partir du CC à Lyon dans toute la France, et plus particulièrement dans les labos de l’IN2P3. Les sujets portent sur des sujets informatiques, ce qui explique l’utilité de pouvoir rassembler l’audience virtuellement. En effet, l’idée est née du fait qu’un laboratoire seul réunit rarement un nombre suffisant de spectateurs intéressés par des sujets d’informatique autour d’un orateur, alors que le RI3 peut de loin mobiliser quelques dizaines de participants au niveau national. En tant qu’informaticiens, nous nous devons de jouer un rôle précurseur dans la mise en oeuvre des moyens techniques permettant la réalisation simple et fiable de ces webinaires. Les premiers sujets ont porté sur les thèmes "Helpdesk" (avril), "PVSS" (juin) et "Parallélisme" (septembre), un vaste choix qui (...)

lire la suite

Equipe

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Virginie Dutruel, Sébastien Grégoire, Eric Legay et Gaëlle Shifrin

Interview

Jean-Pierre Meyer

"Nous sommes prêts à contribuer au bon fonctionnement de la grille de production française"
#TITRE
Responsable scientifique de GRIF

lire l'interview

Un peu de lecture
Gazette du CINES
le nouveau numéro de LA GAZETTE DU CINES est paru. Au sommaire : Le supercalculateur JADE (...)

en savoir plus

Appel à propositions
Programme ARTS
Apple a mis en place depuis quelques années le programme ARTS (Apple Research & Technology (...)

en savoir plus

Agenda
13 Oct. - Colloque Interfaces Recherche en grilles – Grilles de production
L’Institut des Grilles (IdG) et l’action Aladdin INRIA ont lancé un appel commun à propositions (...)

en savoir plus

Du 14 au 16 oct. - Journées Grilles France
Du 14 au 16 octobre 2009 seront organisées à Lyon, les journées Grilles France. Ces journées (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2009 CCIN2P3
n°8
Octobre
2009
Astroparticule : vers une évolution des infrastructures de calcul
Satellite Planck / copyright CNES © 2008

En raison de sa diversité, le calcul en astroparticule présente quelques spécificités. La nature des données à étudier est très variée en fonction des projets. Les traitements peuvent être effectués à partir de données temporelles (Virgo, Lisa-Pathfinder…)., ou bien à partir de cartes du ciel (Planck,..). Les outils et logiciels d’analyse de données sont alors très différents. Mais l’ensemble de ces expériences nécessitent des simulations de plus en plus lourdes car les détecteurs sont de plus en plus complexes.

Les expériences telles que la physique des rayons cosmiques de hautes ou d’ultra-hautes énergies (Auger, Auger Nord, EUSO..), la cosmologie (Planck), la recherche d’ondes gravitationnelles (LISA, Virgo,...), ou encore l’astronomie gamma (HESS, Cherenkov Telescope Array) produisent de plus en plus de données. Les projets astroparticules tels que le projet LSST (Large Synoptic Survey Telescope), confirme ce besoin croissant. Nous arrivons en astroparticule à des problématiques en terme de besoin de calcul et de volume de stockage proches de celles des expériences de physique des particules.

Par exemple, en ce qui concerne la mission spatiale Planck dont le satellite a été lancé au mois de mai 2009, les simulations demandent un accès performant en lecture/écriture sur les disques. Le système de fichiers choisi de type distribué (gpfs) peut supporter une utilisation intensive dans un environnement haut débit et à haute performance et permet d’obtenir des débits proches de 500 Mo/s pour plusieurs dizaines de tâches parallèles. La mémoire utilisée par ces tâches peut atteindre 10 Go de RAM. 

L’utilisation des environnements de calcul parallèle (MPI Message passing interface) ou PVM (Parallel Virtual Machine) à mémoire partagée permet de répondre à cette contrainte. La volumétrie des données brutes pourrait atteindre une dizaine de téra-octets. Néanmoins, la quantité des données à stocker après simulation augmente cette volumétrie d’un facteur 100 et incite à utiliser des solutions de stockages pérennes.

Un autre exemple démontrant les besoins croissants en processeurs de calcul et en stockage des applications astroparticules est le projet LSST. Il s’agit d’un projet de télescope de 8,4 m de diamètre, qui devrait prendre ses premières images scientifiques en 2016. Il sera implanté au Chili et possédera une mosaïque de 200 CCD 4k x 4k, totalisant 3,2 milliards de pixels, lui donnant un champ de vue de dix degrés carrés.

À raison d’une pose toutes les quinze secondes, le LSST devrait couvrir en trois jours l’ensemble du ciel visible du Chili. La quantité de données produites annoncée est entre 15 à 30 To par jour et le volume de la base de données aura une taille sans précédent en astronomie. Les traitements d’images massivement parallèles seront les principaux besoins en calcul. Le système de fichiers devra permettre d’accéder aux données brutes et d’analyser ces données à l’échelle du péta-octet. Indépendamment du choix du système de fichiers, se rajoute la problématique du choix du système de base de données le plus adapté à cette volumétrie.

D’une façon générale, l’ensemble des données telles que les données d’étalonnage, les réponses instrumentales, celles issues de l’analyse standard et les logiciels d’analyse associés nécessaires à l’exploitation scientifique sont archivées et mise à la disposition de la communauté scientifique. Elles doivent être disponibles bien après la fin de la mission ou du projet. Cette contrainte implique de maîtriser des systèmes d’archivages hybrides sur bandes et sur disques pour la gestion de très grosse volumétrie. De plus, il est nécessaire d’assurer la sécurité de ces données et d’en gérer la distribution en tenant compte de leurs caractères privé/publique selon les règles de distribution propre à chaque mission et expérience. Leur stockage et leurs distribution sont d’autant plus importantes qu’ils permettent par exemple de procéder à des analyses corrélatives entre les différentes données des observatoires au sol (Virgo) et en vol (Swift/GLAST).

Les infrastructures de calcul sur architecture distribuée de type grille de calcul (AUGER, virgo, CTA…) et parallèle (Planck HFI..) répondent à ce besoin croissant. Elles s’appuient sur un réseau dont les performances sont devenus indispensables à la stabilité des systèmes. Le choix de ce type d’infrastructure de calcul pour répondre aux besoins des applications astroparticules et des projets spatiaux annonce le déploiement de réseau optique dédié de haute performance pour les laboratoires qui hébergeront des nœuds de calcul ou de stockage.

Michèle DETOURNAY

n°8
Octobre
2009

"Nous sommes prêts à contribuer au bon fonctionnement de la grille de production française"

Jean-Pierre Meyer

Responsable scientifique de GRIF


- Comment est né le projet GRIF ?

Le projet de Grille de calcul au service de la Recherche en Ile de France (GRIF) est né fin 2004 à l’initiative du LAL et de l’Irfu (à l’époque le DAPNIA) engagés alors dans le projet EGEE2 et dans les quatre expériences LHC. Au printemps 2005, nous avons organisé une réunion de l’ensemble des laboratoires de la région impliqués dans les expériences LHC afin de débattre sur l’opportunité de s’engager dans l’aventure de la création d’un centre Tier2. Suite à cette réunion, le LPNHE a décidé de se rejoindre au LAL et à l’Irfu pour une phase de R&D devant démontrer la faisabilité d’un nœud de grille distribué. Le projet GRIF était né.

En septembre 2005, deux nouveaux partenaires, l’IPN d’Orsay et le LLR de l’école Polytechnique ont rejoint GRIF. Fin 2006, l’institut des systèmes complexes Paris Ile de France (ISC-PIF) a décidé de confier ses ressources informatiques à GRIF. Mi 2007, l’APC à Tolbiac à rejoint le projet en créant un sixième nœud de GRIF dans la région IdF.

- Quels objectifs vous-êtes vous fixés ?

Le projet GRIF a pour objectif l’opération d’une grille de calcul fédérant les grands centres de recherche de la région parisienne autour d’un outil commun dans le cadre de la grille européenne EGEE et de la grille mondiale LCG. Il constitue le fer de lance du GIS P2I (Physique des deux infinis) depuis 2005, avec une ressource de calcul et de stockage de première importance dans le paysage français des grilles. La constitution d’une équipe technique soudée opérant conjointement les six sites de GRIF marque la réussite de ce projet ambitieux.

Bien que le projet soit ouvert à plus de 25 organisations virtuelles, l’accès aux données du LHC au travers de l’opération d’un centre LCG Tier2 et Tier3 pour les physiciens de la région Ile de France, reste l’un des ses objectifs majeurs. La dissémination au travers de journées formations pour les utilisateurs mais aussi pour les nouveaux ingénieurs opérant la grille permettent à chacun de trouver l’aide indispensable au sein de GRIF. La proximité des équipes techniques et des utilisateurs constitue un atout majeur dans le fonctionnement des sites.

- Quelles perspectives envisagez-vous pour le projet, à l’heure de la mise en place d’une grille nationale ?

Dans le contexte actuel de transition entre les projets EGEE et EGI/NGI, les acteurs de GRIF sont prêts à contribuer au bon fonctionnement de la grille de production française (FGI pour « French Grid Initiative ») en apportant leur expérience de l’opération d’une grille régionale multisite.

En région Ile de France, de nouveaux laboratoires sont en passe de se lancer sur la grille et GRIF sera pour eux une aide précieuse. La question se pose de savoir si GRIF peut accueillir de nouveaux partenaires opérant de nouveaux nœuds sans faire exploser la cohésion actuelle. Dans une telle perspective, de nouveaux outils de communication à mettre en œuvre peuvent nous aider à surmonter les difficultés de communication qui vont aller croissantes avec le nombre de partenaires.

A l’horizon 2015, nous estimons que GRIF proposera à des centaines d’utilisateurs de l’ordre de 10000 à 15000 cœurs et environ 8 à 10 Péta octets de stockage. Pour héberger ces ressources, il faudra de l’ordre de 300 à 400 m2 de salle machine drainant une puissance utile de l’ordre du 800 à 1000kW. Une double adduction réseau de 50 à 100 Gbit/s sera également indispensable pour un nœud de grille d’une telle ampleur dans le contexte d’un LHC ayant engrangé de nombreuses données. Pour relever ce challenge, le plan campus du plateau de Saclay constitue une piste intéressante à suivre.

PROPOS RECUEILLIS PAR GAËLLE SHIFRIN

n°8
Octobre
2009
La mécanique des fluides appliquée au CC-IN2P3
Le mainframe IBM 3090, initialement installé au CC-IN2P3. ©CC-IN2P3/CNRS

Le Centre de Calcul de l’IN2P3, initialement appelé CCPN, a été créé au tout début des années soixante par trois laboratoires (Louis Le Prince Ringuet, Collège de France et celui de l’université anciennement Paris VI). Il était à l’origine installé sur le campus de Jussieu, à Paris (sur le site de la Halle aux vins) puis fut transféré en 1986 sur le domaine scientifique de la Doua (à Villeurbanne). En plus de vingt ans, la salle machine du CC-IN2P3 a beaucoup évolué, tant sur le plan de l’infrastructure informatique, électrique ou climatique, en particulier ces trois dernières années. Petit tour d’horizon des travaux effectués.

En 1986, lors de son implantation à Villeurbanne, le nouveau bâtiment intégrait l’infrastructure de l’époque, c’est-à-dire un mainframe IBM 3090 (voir photo ci-dessus), une imposante machine refroidie alors par eau qui permettait de chauffer les locaux via la récupération de la chaleur produite en salle machine.

Avec l’évolution de l’informatique et des besoins des expériences de physique, le mainframe a été abandonné en 1997 et remplacé par une première ferme de calculateurs, un peu perdue dans une salle machine alors surdimensionnée (800 m2). Cette nouvelle donnée a incité les informaticiens du CC-IN2P3 à installer un système climatique de soufflage via les faux-planchers qui a longtemps prévalu au centre de calcul.

Avec l’augmentation des ressources, la salle machine s’est à nouveau peu à peu remplie, longtemps sans que cela ne suscite d’inquiétude sur ses capacité électrique et climatique. Mais en 2003, la densité de chaleur (c’est-à-dire le nombre de calories produites par m2) a atteint un niveau critique, mettant à mal le système climatique existant. A l’orée du LHC, et alors que le CC-IN2P3 devait augmenter sensiblement ses ressources (voir graphe ci-dessous), les incidents se sont multipliés et il a fallu réagir rapidement.



Un premier groupe froid de secours a donc été installé sur le parking du CC-IN2P3 afin de palier à ces problèmes au moins à court terme, groupe froid bientôt remplacé par un second, permanent celui-ci, intégré au système climatique de la salle machine. Mais la multiplication des groupes froids n’allait malheureusement pas régler tous les problèmes : atteignant ses limites en matière d’infrastructure électrique et climatique, la salle machine devait connaître un remaniement en profondeur, notamment une nouvelle distribution de l’eau glacée et une révision complète de son système électrique. La puissance électrique est en effet passée de 400 kW en 1986, à 2000 kW en 2009 !

En 2006, un premier projet intitulé OPUS (Optimisation de la Puissance Utile en Salle Machine) a donc été mis en place. Il visait à augmenter les capacités électrique et climatique de la salle machine (à court terme à cette phase là du projet). Un second projet a ensuite consisté à installer de nouveaux groupes froids et à renforcer l’infrastructure électrique en installant de nouveaux transformateurs, la portant à 3 MVA. Durant cette période intermédiaire, les déficiences des systèmes climatiques et électriques ont été compensées par des systèmes de location.

Aujourd’hui, les densités électrique et calorique sont telles que le système de refroidissement par air n’est plus suffisant. En effet, alors que la densité électrique était d’environ 1200 w/m2 pendant 15 ans, elle est aujourd’hui de 1900 w/m2 et devrait augmenter progressivement jusqu’à atteindre 3000 w/m2 en 2011 !

Corolaire de la puissance électrique, le taux important de dissipation thermique des machines conduit aujourd’hui le CC-IN2P3 à expérimenter de nouvelles techniques de climatisation dans la salle machine. La méthode de refroidissement par soufflage d’air froid à travers le faux-plancher va donc peu à peu être abandonnée pour laisser place à une technique de confinement et à un dispositif de climatisation directement inséré entre les baies, capable de couvrir un besoin en refroidissement de 20kW par baie. Deux lignes de calculateurs ont déjà été installées via cette nouvelle technique (voir photo). De nouveaux racks devraient connaître le même sort prochainement et l’extension de la salle machine, programmée en théorie pour 2011, prendra en compte l’installation de tous les racks selon cette technique, le faux-plancher disparaitra alors totalement et les connexions (eau, courants, forts et courants faibles) se feront par le plafond.

Par ailleurs, un gros travail a été fait afin de réduire les nuisances sonores provoquées par la climatisation, grâce à l’utilisation de ventilateurs de plus grande taille, tournant à une vitesse moindre et faisant donc moins de bruit. Enfin, notons que depuis un an et demi, le CC-IN2P3 est équipé de quatre onduleurs nouvelle génération qui incluent le traitement des harmoniques, c’est-à-dire qui prennent en compte les éventuelles perturbations des réseaux électriques.

Gaëlle Shifrin

n°8
Octobre
2009
Xtrem programming et idées recues

L’extreme programming (ou XP) est une des méthodes agile dont le nom est globalement le plus connu. Mais peu en connaissent les fondements et les principes.

La principale source de méprise provient du nom même de la méthode souvent associée avec des notions de désorganisation, d’urgence, de manque de documentation, de code aride et illisible. En clair, extrême est associé à la notion risquée.

En fait, le nom extreme programming vient du fait que les activités de programmation sont au centre de la méthode et que les pratiques qui font le succès des projets sont poussées à leur extrême. Les tests permettent de détecter rapidement les défauts ? Écrivons les tests en premier et automatisons-les ! Il faut privilégier les livraisons fréquentes ? Adoptons un développement avec les cycles le plus court possible. Le client peut être un élément clé du développement ? Intégrons-le à l’équipe de réalisation …

Toutes ces nouvelles contraintes ne s’ajoutent pas aux contraintes des méthodes logicielles traditionnelles, elles les remplacent. L’idée n’est pas d’alourdir le formalisme existant, c’est de ne garder que les points clés. Ainsi au lieu d’avoir pléthore de points de passage plus ou moins facultatif, il ne reste que quelques points importants et qui deviennent incontournables. On ne peut plus se dire qu’une étape peut être oublié en chemin parce qu’elle sera remplacée par une autre, on est obligé de valider chaque étape.

En pratique, que demande cette méthodologie ?

Au niveau de la gestion de projets, il y a deux différences avec une gestion classique : le client sur site et des livraisons fréquentes. La présence du client a un impact direct lors des nécessaires arbitrages sur les priorités et les rendus finaux. Le fait de devoir livrer fréquemment des versions intermédiaires permet de mieux intégrer le retour utilisateur au développement. Par contre, il implique des séances de planification régulière. Au début de chaque nouveau cycle, le client définit les nouvelles priorités et discute avec les développeurs du contenu des nouvelles fonctionnalités.

Au niveau des pratiques collaboratives, les apports de cette méthode sont principalement : travaille en binôme, propriété collective du code et l’intégration continue. Le premier point consiste à faire travailler deux développeurs sur une même machine. Ainsi, le code fourni devrait être de meilleure qualité, le relecteur corrigeant des fautes à la volée, le codeur pouvant se concentrer sur une vue analytique du problème quand le relecteur peut avoir une vue plus synthétique. Cette approche facilite la notion de propriété collective. Le code n’appartient à personne en particulier ; tout le monde peut intervenir sur tous les modules du code. Cela implique aussi une responsabilité collective sur ce code. Bien entendu, pour atténuer les contraintes ci-dessus des règles de codage et tous les autres outils simplifiant la relecture de code et le partage d’informations sont fortement conseillées.

Enfin, au niveau de la programmation en elle-même, la méthode XP se base sur deux concepts : une conception simple, un développement guidé par les tests. La solution la plus simple doit être implémentée, cela facilitera les évolutions futures ainsi que les tests et la documentation. L’idée de devoir redévelopper un module pour ajouter de nouvelles fonctionnalités ne doit pas être limitant, cela permettra de repasser dans ce module et d’en améliorer le code. Le développement guidé par les tests est une pratique suffisamment utilisée pour ne pas en reparler ici.

Toutes ces pratiques ne sont pas aussi simples que ça à appliquer et demande souvent des volontés politiques ou économiques fortes. Le gain est souvent au rendez-vous, mais la mise en pratique n’est pas aisée.

Pour finir cet article sur la pratique de XP, voici un résumé des quatre valeurs cardinales mises en exergue : * Communication * Simplicité * Feedback * Courage

Eric Legay

n°8
Octobre
2009
Stockage : les premières librairies robotisées du CC-IN2P3 détrônées
Moment historique : l'arrêt des Powderhorn 931 qui laissent place... © CC-IN2P3 / CNRS ©

Il y a quelques jours, la dernière librairie de stockage StorageTek Powderhorn 9310 a été définitivement arrêtée au CC-IN2P3, une petite révolution à l’échelle du centre.

Ce système de stockage avait été choisi en 1991 alors que des opérateurs étaient encore chargés d’installer les bandes sur les lecteurs à la demande des utilisateurs. Cette méthode induisait un temps de réponse long (environ 5 minutes) et certaines contraintes qui poussaient par exemple l’utilisateur à faire une copie en prévision de la nuit, pendant laquelle aucune intervention humaine n’était possible. Avec les librairies 9310, c’est tout le système de stockage du CC-IN2P3 qui allait être bouleversé.

Trois puis bientôt six librairies 9310 furent installées et interconnectées dans la salle machine du centre, soit une capacité totale de 36 000 cartouches magnétiques. Des cartouches d’une capacité de 200 Mo il y a plus de dix ans, qui ont peu à peu évolué jusqu’à stocker 200 Go de données dès début 2003.

Ces librairies, ou silos, de stockage remplissaient une fonction primordiale au CC-IN2P3 : le stockage de masse et la sauvegarde des fichiers utilisateurs, ainsi que la sauvegarde des données internes au fonctionnement du CC-IN2P3 (une autre copie étant stockée dans les locaux de l’IPNL pour plus de sûreté).

L’accès aux données était d’abord effectué via un logiciel ’maison’ appelé Xtage, qui a permis de nettement raccourcir le temps de réponse mais qui nécessitait encore une gestion et une migration manuelle des fichiers de la part de l’utilisateur. Ce logiciel fut ensuite remplacé par HPSS (High Performance Storage System) qui permet un stockage hiérarchique des fichiers, un accès transparent pour l’utilisateur et une optimisation des cartouches.

Après plus de dix ans de bons et loyaux services, ces librairies Powderhorn 9310 ont donc finalement laissé place à trois libraires de modèle SL8500 (prochainement rejointes par une quatrième). Avec leur 10 000 volumes chacune, ces nouvelles librairies présentent l’avantage d’être plus capacitives que leurs aînées, d’autant que leurs cartouches peuvent stocker jusqu’à 1 To de données.

Les lecteurs installés dans les nouvelles librairies offrent aussi un débit de lecture plus élevé (100 Mo/s contre dix fois moins pour ceux des 9310) et les librairies sont d’une meilleure fiabilité puisque le système de redondance permet notamment de changer un bras sans avoir besoin d’arrêter le robot. Dernier atout : avec leur forme rectangulaire, ces SL8500 offrent une meilleure occupation au sol que les 9310 (qui étaient circulaires).

Avec l’arrêt définitif de la dernière librairie 9310, le CC-IN2P3 tourne donc une page de son histoire. Mais avec la mise en service des SL8500, il se dote d’un système de stockage nouvelle génération qui devrait rendre un service encore plus fiable à ses utilisateurs.

Gaëlle SHIFRIN

n°8
Octobre
2009
Point sur les webinaires

Depuis le mois d’avril de cette année, le CCRI organise des « webinaires », des séminaires bien réels diffusés via internet à une salle d’audience virtuelle qui se compose à la fois de salles équipées d’un matériel de visioconférences et de spectateurs qui se connectent à partir de leur poste de travail sur un flux de données diffusées à partir du CC à Lyon dans toute la France, et plus particulièrement dans les labos de l’IN2P3.

Les sujets portent sur des sujets informatiques, ce qui explique l’utilité de pouvoir rassembler l’audience virtuellement. En effet, l’idée est née du fait qu’un laboratoire seul réunit rarement un nombre suffisant de spectateurs intéressés par des sujets d’informatique autour d’un orateur, alors que le RI3 peut de loin mobiliser quelques dizaines de participants au niveau national. En tant qu’informaticiens, nous nous devons de jouer un rôle précurseur dans la mise en oeuvre des moyens techniques permettant la réalisation simple et fiable de ces webinaires.

Les premiers sujets ont porté sur les thèmes "Helpdesk" (avril), "PVSS" (juin) et "Parallélisme" (septembre), un vaste choix qui veut couvrir à tour de rôle tous les aspects du métier informatique. L’audience comporte entre 20 et 50 participants, avec une légère tendance à la hausse.

Le programme complet est disponible sur INDICO, indiquant déjà le webinaire du 20 octobre à 10h30, par A. Tsaregorodtsev (CPPM), sur le thème "DIRAC - une solution grille pour LHCb".

Des sujets sur le cadriciel EPICS (le 17 novembre par P. Mattei), la programmation de GPU pour le calcul parallèle et d’autres calculs scientifiques sont prévus, ainsi que des présentations commerciales par des fabricants d’ordinateurs ou de logiciels.

Les organisateurs espèrent pouvoir tenir le rythme mensuel jusqu’à la fin de l’année académique et invitent nos lecteurs à faire des propositions ou exprimer leurs souhaits sur un sujet en particulier par courriel à ccri@in2p3.fr.

Dirk HOFFMANN

n°8
Octobre
2009
Du 14 au 16 oct. - Journées Grilles France

Du 14 au 16 octobre 2009 seront organisées à Lyon, les journées Grilles France.

Ces journées d’informations et de discussions feront le point sur la formation des structures pérennes de grilles au niveau européen EGI et français la NGI France, sur la transition d’EGEE vers ces structures et sur la grille LCG France.

Vous trouverez de plus amples informations ainsi que le programme détaillé ici : http://indico.in2p3.fr/conferenceDisplay.py?confId=2110.

Une très large participation de la communauté française travaillant autour des grilles de production est souhaitée.

13 Oct. - Colloque Interfaces Recherche en grilles – Grilles de production

L’Institut des Grilles (IdG) et l’action Aladdin INRIA ont lancé un appel commun à propositions pour dynamiser les recherches à l’interface entre la recherche sur les grilles, les grilles de recherche, et les grilles de production.

Le champ thématique des projets attendus couvre l’ensemble des domaines de recherche présentés dans le cadre du Groupe de Travail 5 de l’exercice national de prospective sur les grilles de production, dont les travaux sont décrits pages 30-38 du Livre Blanc issu de cet exercice, ainsi que du Groupe de travail transverse dédié à l’interface Grille de recherche-Grille de production, p. 54.

Le but principal de cet appel est de catalyser des collaborations porteuses de projets ambitieux et de leur fournir une visibilité nationale et internationale. Les projets viseront à faire émerger des synergies concrètes, en particulier à travers la constitution de groupes de travail pour la préparation d’un projet de programme interdisciplinaire du CNRS ou de l’INRIA, d’un appel d’offres ANR, d’un projet européen ou d’une collaboration industrielle.

Cette journée a pour but de présenter les projets proposés et d’échanger autour de ce sujet important.

Inscription au colloque par mail auprès de Mélanie Pellen.

Pour en savoir plus, consultez le site à l’adresse http://graal.ens-lyon.fr/ desprez/FILES/ProdRech.html.

n°8
Octobre
2009
Gazette du CINES

Un peu de lecture

le nouveau numéro de LA GAZETTE DU CINES est paru.

Au sommaire :
- Le supercalculateur JADE
- HPC Europa2
- PRACE WP8
- Des utilisateurs primés
- L’archivage pérenne au CINES
- Bonnes pratiques ITIL au CINES
- CaMPaS
- La gestion des données scientifiques au CINES
- HPC-Europa2 Transnational Access Meeting 2009 à Montpellier
- Nouvelle campagne d’attribution d’heures-calcul (DARI)
- J. Laskar, M. Gastineau et le CINES à l’honneur dans la revue NATURE

Il est consultable à l’adresse suivante : http://www.cines.fr/IMG/pdf/Gazette...

Programme ARTS

Appel à propositions

Apple a mis en place depuis quelques années le programme ARTS (Apple Research & Technology Support), qui vise à soutenir des travaux de recherche innovants menés en utilisant sa technologie (pour la petite histoire, la personne qui a initié ce programme n’est autre que Massimo Marino, ancien physicien d’Atlas, qui y était connu comme grand spécialiste de la plateforme MacOS X).

Ce soutien se matérialise par un bon d’achat de 30k$ dans le catalogue Apple (soit pas mal d’iPods nano si ceux-ci peuvent servir aux recherches en question ;-) ), et par l’accès à un réseau de support à l’utilisation de la technologie Apple. Le gagnant sera également financé pour communiquer le résultat de ses recherches scientifiques dans des colloques internationaux de son domaine.

Aux termes de ce programme ARTS, Apple délègue à des "institutions ARTS" le soin de lancer des appels à candidature au sein de leur communauté et à sélectionner les meilleures réponses, grâce à un micro-comité scientifique mis en place par l’institution. À partir de cette année, l’IN2P3 participe à ce programme, aux côtés du CERN, de l’Institut Pasteur, de l’INRIA etc.

Il faut noter que les projets éligibles ne sont pas nécessairement liés à des développements informatiques : ce qui sera primé sera l’utilisation intelligente et innovante de la technologie Apple.

Pour plus d’informations concernant les termes et conditions du programme ARTS, ainsi que les critères d’éligibilité, voir http://www.apple.com/uk/education/arts.

La date de clôture de cet appel est fixée au 31 octobre 2009. Les propositions, de format libre, doivent être envoyées à Laurent Malet

Une dernière précision : cette opération, à l’initiative du département éducation d’Apple, ne traduit en aucun cas une politique contractuelle de l’IN2P3 avec Apple.