imprimer
n°18
Octobre
2011
Le CC-IN2P3 inaugure sa nouvelle salle informatique
Le 27 septembre 2011, le Centre de Calcul de l’IN2P3/CNRS a inauguré sa nouvelle salle informatique, en présence de ses partenaires en région, au niveau national et à l’international.

Près de 300 personnes ont ainsi assisté à cet événement auquel ont notamment participé Jean-Jacques Queyranne, président de la Région Rhône-Alpes, Jacques Martino, directeur de l’IN2P3, représentant le président du CNRS, Jean-François Carenco, Préfet de Région, Préfet du Rhône ou son représentant, Sergio Bertolucci, directeur pour la recherche et l’informatique au CERN, Sylvie Rosier-Lees, Responsable AMS France, et Roberto Vittori, astronaute à l’Agence spatiale européenne et membre de l’équipage de la navette spatiale qui a livré le détecteur AMS sur la station spatiale internationale.

Cette demi-journée de conférences, organisée en partenariat avec DELL, CAPINGELEC, APC - Schneider Electric et OpenStorage, s’est terminée par la cérémonie du ruban et par un cocktail festif sous une tente installée près du CC-IN2P3. C’est Jacques Cohen-Ganouna, premier directeur du CC-IN2P3, qui a eu le privilège de couper le fameux ruban.

Financée dans le cadre du Contrat de Projet État Région (CPER 2007-2013) par l’État, via le CNRS, et par la Région Rhône-Alpes, la construction du nouveau bâtiment a été réalisée sur un terrain villeurbannais cédé par (...)

lire la suite

Calcul

Le nœud de grille du LPSC passe du niveau Tier 3 à Tier 2 pour le calcul LHC

Faisant suite à la demande des physiciens du groupe ATLAS du laboratoire, le LPSC a décidé en 2006 de créer un nœud de grille pour le calcul LHC. Le laboratoire a ainsi investi dans l’aménagement d’une salle informatique avec un système de refroidissement original basé sur la technique du « free cooling » [3] et dans toute l’infrastructure nécessaire à l’accueil d’un site de grille. Après une phase de tests en 2007 et l’achat des premiers matériels soutenus par le LPSC, les groupes de physique LHC du laboratoire et l’Institut des Grilles et du Cloud, le site est mis en production en janvier 2008.

lire la suite

Grille

Record d’affluence pour la grille

Le Technical Forum « EGI » organisé par le CC-IN2P3, EGI.eu, l’European Grid Infrastructure et France Grilles, s’est tenu du 20 au 23 septembre 2011 au Centre de congrès de Lyon. Plus de 670 congressistes ont participé à l’ensemble des événements co-localisés avec ce forum, ce qui est un record d’affluence depuis 10 ans dans le domaine de la grille.

lire la suite

Initiative

L’innovation et la recherche au coeur des produits SysFera

La société SysFera a été fondée à Lyon en mars 2010 par David Loureiro (PDG), Eddy Caron et Frédéric Desprez, après un processus d’incubation démarré en 2007. C’est une spin-off Inria issue de l’équipe de recherche Graal (au sein de laquelle Frédéric Desprez est Directeur de Recherche et Eddy Caron Maître de Conférences HDR, et où David a travaillé pendant deux ans) du Laboratoire de l’Informatique du Parallélisme de l’École normale supérieure de Lyon.

lire la suite

Stockage

Sauvegarde au CC-IN2P3 : vers un service plus performant

Outre le traitement et le transfert de données à très haut débit, l’une des missions du Centre de Calcul de l’IN2P3 est de sauvegarder les données de l’ensemble des laboratoires de l’IN2P3.

Organisé de façon hiérarchique, le système de sauvegarde du CC-IN2P3 implique que les données soient écrites sur plusieurs médias : d’abord sur disques puis sur bandes. Pour des questions de sécurité, le CC-IN2P3 est également chargé de transférer une copie des données sur bandes dans le bâtiment de l’Institut de Physique Nucléaire de Lyon, situé à quelques centaines de mètres de celui du CC-IN2P3.

lire la suite

Equipe

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Dominique Cathala, Virginie Dutruel, Sébastien Grégoire, Eric Legay, et Gaëlle Shifrin

Interview

Sylvie Rosier-Lees

"Véritable observatoire des rayons cosmiques, AMS est un instrument unique"
#TITRE
Responsable AMS - France

lire l'interview

WebCast
Revivez les rencontres scientifiques France Grilles (Lyon, septembre 2011)
Le GIS France Grilles a organisé ses premières rencontres scientifiques à Lyon, le 19 septembre (...)

en savoir plus

Sur le Net
Les serveurs du Centre de Calcul permettent de chauffer des bâtiments.
Enviscope, le quotidien de l’environnement, de l’innovation et de l’eco entreprise, a publié un (...)

en savoir plus

A lire
Ouvrages sur les grilles
Frédéric Magoulès, Professeur à l’Ecole Centrale de Paris, est auteur et co-auteur de nombreux (...)

en savoir plus

Agenda
Workshop LCG-France
LCG-France organise, 2 fois par an, une rencontre des sites. La session d’Automne 2011 se (...)

en savoir plus

Conférence SuperComputing 2011
La Conférence SuperComputing 2011 aura lieu du 11 au 18 novembre à Seattle. Le CC-IN2P3 et (...)

en savoir plus

Webimaire : Energy Efficient Ethernet
Le pôle ARESU de la DSI-CNRS organise avec HP un webinaire sur le standard EEE 802.3az : un (...)

en savoir plus

Conférence CHEP 2012
La prochaine conférence Internationale CHEP (Computing in High Energy and Nuclear Physics) se (...)

en savoir plus

Formation Quattor
Une formation Quattor est organisée les 7 et 8 décembre prochain au Centre de Calcul de l’IN2P3, (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2011 CCIN2P3
n°18
Octobre
2011
Le CC-IN2P3 inaugure sa nouvelle salle informatique

Le 27 septembre 2011, le Centre de Calcul de l’IN2P3/CNRS a inauguré sa nouvelle salle informatique, en présence de ses partenaires en région, au niveau national et à l’international.

Près de 300 personnes ont ainsi assisté à cet événement auquel ont notamment participé Jean-Jacques Queyranne, président de la Région Rhône-Alpes, Jacques Martino, directeur de l’IN2P3, représentant le président du CNRS, Jean-François Carenco, Préfet de Région, Préfet du Rhône ou son représentant, Sergio Bertolucci, directeur pour la recherche et l’informatique au CERN, Sylvie Rosier-Lees, Responsable AMS France, et Roberto Vittori, astronaute à l’Agence spatiale européenne et membre de l’équipage de la navette spatiale qui a livré le détecteur AMS sur la station spatiale internationale.

Cette demi-journée de conférences, organisée en partenariat avec DELL, CAPINGELEC, APC - Schneider Electric et OpenStorage, s’est terminée par la cérémonie du ruban et par un cocktail festif sous une tente installée près du CC-IN2P3. C’est Jacques Cohen-Ganouna, premier directeur du CC-IN2P3, qui a eu le privilège de couper le fameux ruban.

Financée dans le cadre du Contrat de Projet État Région (CPER 2007-2013) par l’État, via le CNRS, et par la Région Rhône-Alpes, la construction du nouveau bâtiment a été réalisée sur un terrain villeurbannais cédé par l’Université Claude Bernard Lyon 1, sur le campus de la Doua. Le projet a bénéficié en 2009 d’un important soutien du plan de relance gouvernemental.

La nouvelle salle informatique d’une superficie de 900 m2, va permettre au CC-IN2P3 d’offrir un service encore plus performant à sa communauté de recherche, en remplissant des engagements internationaux particulièrement ambitieux vis-à-vis du projet LHC tout en offrant un service de première qualité à ses autres utilisateurs.

Le domaine des astroparticules, à la convergence de l’infiniment petit et l’infiniment grand, va avoir besoin au cours de cette décennie, d’une capacité de traitement de données sans commune mesure avec ce que le CC-IN2P3 a connu jusqu’à présent. La nouvelle salle informatique, de par sa conception moderne, fournira l’infrastructure numérique nécessaire à l’exploitation scientifique de plusieurs projets internationaux d’astroparticules. Peu d’endroits dans le monde académique offrent autant de possibilités, c’est donc d’une carte maitresse que vient de se doter le CNRS en réalisant cette extension.

Cette salle va également bénéficier aux laboratoires de recherche de la Région Rhône-Alpes, via notamment son projet de Traitement de Données et d’Informatique Distribuée en Rhône-Alpes (TIDRA) qui vise à proposer une infrastructure distribuée aux laboratoires et entreprises de la région. Cette salle informatique a été construite de façon modulaire, afin de pouvoir monter en puissance au fil du temps. Cette modularité permettra de s’adapter à toutes les évolutions des programmes scientifiques de la discipline. Dès 2011, la capacité de la nouvelle salle sera équivalente à celle de l’ancienne. A terme, elle sera 4 à 5 fois supérieure.

Les puissances électriques nécessaires à l’alimentation d’un centre de calcul tel que le CC-IN2P3 sont très importantes. Cette puissance se trouve essentiellement dissipée sous forme de chaleur qu’il faut évacuer. Le CC-IN2P3, soucieux de limiter l’impact sur l’environnement, a choisi de mettre en place les équipements nécessaires afin de récupérer la chaleur produite et de la mettre à la disposition de l’Université afin de chauffer des bâtiments du campus. Ceci est particulièrement pertinent dans le cadre du plan campus de l’UCBL qui prévoit la construction de nouveaux bâtiments proches du CC-IN2P3 en vue de créer un « quartier de la physique ».

La très haute technicité du bâtiment à construire a justifié l’utilisation d’une procédure dérogatoire de conception-réalisation, première du genre au CNRS.

Retrouvez les conférences présentées lors de l’inauguration à l’adresse :

http://webcast.in2p3.fr/events-inauguration_salle_informatique_ccin2p3.

DOMINIQUE BOUTIGNY ET GAELLE SHIFRIN

n°18
Octobre
2011

"Véritable observatoire des rayons cosmiques, AMS est un instrument unique"

Sylvie Rosier-Lees

Responsable AMS - France

-Quelles sont les missions de l’expérience AMS ?

AMS (Alpha Magnetic Spectrometer) est le plus complet des détecteurs de particules jamais construits pour l’espace : 7,5 tonnes, 4 mètres de haut, 5 mètres de large pour 300 000 canaux et une consommation de 2.5 kWatts. Ce concentré de technologies aura pour mission de traquer tous les signes possibles de l’existence des composantes les plus mystérieuses de la matière dans l’univers, parmi lesquelles l’antimatière, la matière noire ou encore la matière étrange. A côté des sujets évoqués ci-dessus, la mesure précise par AMS du flux des rayons cosmiques, particules élémentaires et/ou noyaux d’atomes, apportera une moisson d’informations sur les mécanismes de propagation et d’accélération des rayons cosmiques en jeu dans notre galaxie et sur les objets célestes qui les produisent.

Pour ce faire, il faut pouvoir identifier les rayons cosmiques qui bombardent en permanence la terre. En effet, l’univers est parcouru par des milliards de particules chargées de toute nature : protons, électrons, positons, antiprotons ou encore noyaux d’atomes. Ces particules et noyaux portent en eux des informations sur l’histoire de notre univers et sur ce qui le compose. Mais en entrant en collision avec notre atmosphère, ils sont détruits avant d’arriver au sol. Pour les étudier, il faut donc aller dans l’espace, au-delà de l’atmosphère. C’est pourquoi l’expérience AMS a été installée sur la station spatiale internationale (ISS) le 19 mai 2011 à bord de la navette Endeavour dont c’était l’ultime mission. AMS est l’unique grande expérience de physique embarquée à bord de l’ISS . L’expérience restera en orbite autour de la terre à 400 kms d’altitude, pour au moins la durée d’un cycle solaire (11 ans).

AMS est le fruit d’une large collaboration internationale réunissant près de 600 chercheurs, avec une très importante participation européenne. La construction, en incluant la première phase (AMS01) a débuté en 1996. Quatre laboratoires de l’IN2P3/CNRS ont participé depuis le début à la conception, la construction, la qualification et à la préparation des analyses : le LAPP, le LPSC, le LUPM et le CCin2p3. Elle est dirigée par Samuel C.C. Ting, Professeur au M.I.T., Prix Nobel de Physique.

- En quoi consiste AMS ?

AMS, véritable observatoire des rayons cosmiques, est un instrument unique réunissant les techniques d’instrumentation de physique des particules pour l’exploration de l’infiniment petit, et celles permettant de résister aux contraintes extrêmes dues à un envoi et à un fonctionnement dans l’espace. Le cœur du détecteur est un aimant permanent cylindrique de 1,15 mètres de diamètre intérieur qui courbe la trajectoire des particules chargées le traversant, grâce à son champ magnétique de 1500 Gauss, (environ 5000 fois le champ magnétique terrestre). La trajectoire des particules est mesurée par 9 plans successifs de détecteurs en silicium, permettant une précision de 10 microns sur chaque point. Reste à identifier la nature des particules en mesurant leur charge électrique, leur masse et leur énergie avec la plus grande précision. C’est le rôle d’un ensemble de détecteurs que les particules vont croiser successivement sur leur chemin : détecteur à radiation de transition, détecteur de temps de vol, détecteur Cherenkov à imagerie annulaire et calorimètre électromagnétique. Ainsi constitué, AMS est capable d’identifier un positon parmi 1 million de protons et de couvrir le domaine d’énergie des rayons cosmiques du GeV (un milliard d’électronvolts) au TeV (1000 milliards d’électronvolts). AMS améliorera d’un facteur 100 à 1000 la sensibilité de détection par rapport aux expériences précédentes. Un de ses grands atouts est d’identifier les particules de plusieurs façons, ce qui lui permet d’avoir des mesures complémentaires et d’accroitre ainsi son potentiel de découverte.

- Quelles sont les particularités des données d’AMS en terme de transmission et flux ?

Dans le cas des instruments spatiaux, les données et les commandes sont transférées entre l’ISS et la terre via des communications entre les satellites et les stations terrestres, en utilisant deux types de bandes de fréquences : Ku band (10.9-14 GHz) et S band (2-3 Ghz).

Les données ne sont pas publiques et la collaboration d’AMS en a l’unique usufruit, elles sont regroupées en trois catégories :

- Les données scientifiques sont les plus volumineuses, elles constituent la réponse des détecteurs. Elles transitent par la voie Ku ( bus Ethernet RS422, 70 % de cycle utile ) avec un débit de minimal de 10Moctets/s ce qui représente 20% de la bande passante totale disponible sur l’ISS, la taille moyenne d’un événement étant en moyenne de 2000 Octets et la fréquence moyenne de déclenchement est de 700 Hz (mais peut atteindre 2KHz au pôles ou au dessus de l’anomalie sud atlantique), le flux moyen de données est d’environ 2 Mo par seconde

- Les données type Slow Control (contrôle des températures, pressions, consommation électrique) et les commandes (qui permettent de dialoguer avec AMS et changer ou lire par exemple des paramètres) transitent aussi par la voie Ku mais avec un autre protocole de bus communément utilisé dans l’avionique (1553B bus), ces opérations peuvent s’effectuer en moins d’une minute. Les données Slow Control sont nécessaires pour contrôler le bon fonctionnement de l’instrument et doivent être suivies en ligne. Si par exemple les températures dépassent les domaines de fonctionnement, des actions peuvent être menées pour éviter tout endommagements irréversibles. Le volume de ces données représente en moyenne 10 kOctets/s.

- les données dites critiques ou Critical Health Data (CHD). Il y a eu un accord entre la NASA et AMS pour garantir le transfert de ce type de données vitales pour suivre le bon fonctionnement de l’instrument. Le volume de données est limité à 10 octets/s. Ces transferts se font sur la S band avec un cycle utile garanti supérieur à 90 %.


PNG - 66.8 ko
AMS, véritable observatoire des rayons cosmiques, est un instrument unique (© droits réservés).


Le temps utile de transmission est en général de 70 % pour les données type Science, mais il peut arriver que ces données aient un retard de transmission de plusieurs heures, soit par ce qu’il y a une perte de communication avec les satellites (LOS : loss Of Signal), soit parce que des données de la station nécessitent une priorité d’envoi. Dans ces cas là, des mémoires tampons d‘une profondeur de plus de deux jours sont prévues. De plus, les données sont systématiquement copiées sur un ordinateur portable et accessible par les astronautes (AMS Crew Operation Post), la capacité du disque dur est d’un an de données.

- Quels types de calcul sont réalisés dans le cadre d’AMS et pour combien de temps ?

Arrivées sur terre, les données transitent en premier lieu par deux centres américains de la NASA (White Sand au Nouveau Mexique et Marshall Space Center en Alabama) où les données brutes d’AMS qui avaient été mises sous un format spécial de la NASA et « mélangées » avec les autres données de l’ISS sont copiées dans leur format d’arrivée localement (autre backup) puis décodées pour les restituer dans leur format d’origine au centre de contrôle des données (Payload Operation Control Center). Le premier POCC était basé à Houston lors des deux premiers mois de prises de données. Il se trouve à présent au CERN et 5 personnes y surveillent la qualité des données et sont en contact permanent avec la station et la NASA.

On retrouve alors les méthodes habituelles de physique des particules de traitement des données où les données brutes sont reconstruites au CERN où se situe le SOC (Science Operating Center), parallèlement deux autres centres Européens abritent les données brutes et reconstruites d’AMS, le CC-IN2P3 est l’un deux. Les données reconstruites sont pour l’instant trois fois plus volumineuses que les données brutes. Elles sont exploitables sous forme de fichiers ROOT et sont transférées au CC-IN2P3 de manière automatique sous IRODS chaque nuit depuis le CERN, représentant un volume de 700 Go par nuit soit 20 To par mois.

L’expérience va rester sur la station jusqu’à la fin de celle-ci, soit pendant 20 ans. Les équipes de physiciens de l’IN2P3 analysent les données au CC-IN2P3. Dans un premier temps, des outils y ont été développés pour suivre journellement la qualité de données (taux de déclenchement, calibration, températures, etc.), tout cela en utilisant une database SQL. En parallèle, ils ont aussi installé les logiciels de simulation de l’expérience au CC-IN2P3. En 2002, 25% de la production Monte Carlo avait été produite au Centre de Calcul (GEANT3). Cette année, il a été demandé au CC-IN2P3 l’équivalent de 150 cores sur 6 mois pour la simulation (qui utilise à présent GEANT4), ce qui représente la plus grosse contribution par institut, mais une faible fraction du volume annuel de données. Il a été collecté déjà 6 milliards d’événements et l’on attend 15 milliards d’événements par année complète. La simulation Monte Carlo devant représenter au minimum dix fois le volume de données, le CC-IN2P3 sera très prochainement encore plus sollicité !

PROPOS RECUEILLIS PAR GS

n°18
Octobre
2011
Le nœud de grille du LPSC passe du niveau Tier 3 à Tier 2 pour le calcul LHC
LPSC, Laboratoire de Physique Subatomique et de Cosmologie de Grenoble

Faisant suite à la demande des physiciens du groupe ATLAS du laboratoire, le LPSC a décidé en 2006 de créer un nœud de grille pour le calcul LHC. Le laboratoire a ainsi investi dans l’aménagement d’une salle informatique avec un système de refroidissement original basé sur la technique du « free cooling » [1] et dans toute l’infrastructure nécessaire à l’accueil d’un site de grille. Après une phase de tests en 2007 et l’achat des premiers matériels soutenus par le LPSC, les groupes de physique LHC du laboratoire et l’Institut des Grilles et du Cloud, le site est mis en production en janvier 2008.

La grille de calcul utilisée pour le LHC s’appuie sur la collaboration internationale W-LCG (Worldwide LHC Computing Grid [2]) qui fédère 140 centres de calcul dans 35 pays. Ces centres sont répartis en 4 catégories. Le Tier 0 est le centre de calcul du CERN qui recueille et traite les données en sortie des détecteurs. Ces dernières sont ensuite dupliquées dans 11 centres de calcul nationaux dits Tier 1 qui ont un contact privilégié avec certains centres de niveau 2 et 3. L’ensemble de ces centres de calcul permet le traitement commun des données des expériences pour chaque collaboration, la production centralisée de simulation des données et la possibilité pour chaque membre des collaborations d’analyser l’ensemble de ces résultats. Dans ce contexte, lors de sa mise en production, le nœud du LPSC a été défini comme un nœud de type Tier 3 (sans engagement auprès des expériences) et a été ouvert aux expériences ATLAS et ALICE.

Depuis sa création, le site s’est développé et s’est ouvert à d’autres communautés d’utilisateurs ou « Virtual Organisation » (VO). Certaines d’entre elles correspondent à des demandes régionales (VO Rhônes-Alpes, EUMED pour les pays méditerranéens), ou à des besoins d’équipes du LPSC (VO LPSC ouverte à tous les membres du LPSC, VO Calice pour le groupe participant à ILC, VO MURE créé à l’initiative du LPSC et dédiée à la simulation de réacteurs nucléaires, VO Biomed pour l’imagerie médicale). On notera d’autre part, qu’une collaboration s’est engagée autour des grilles de calcul et de l’informatique verte entre le service informatique du LPSC et le groupement de laboratoire pour le calcul intensif CIMENT [3] qui vise au développement de projets de calcul de type méso-centre au sein des universités grenobloises.

Depuis 2008, les capacités de calcul et de stockage du site ont régulièrement augmenté pour atteindre aujourd’hui respectivement 760 cœurs correspondant à 6 900 HEPSPEC06 et 500 To net de stockage. ATLAS et ALICE en sont les plus gros utilisateurs, l’ensemble des autres communautés utilisant environ 10% de la puissance de calcul consommée. L’évolution de cette dernière est montrée sur la figure 1 depuis la mise en production du site en 2008. Le LPSC assure environ 3% des tâches d’analyse et de production du nuage français d’ATLAS (le nuage français regroupe les sites français, roumains, chinois et japonais) et 7% de la production des sites français pour ALICE.

Après une année de fonctionnement du LHC et considérant l’évolution des stratégies de traitement des données de ses expériences, les groupes de physiques du laboratoire ont exprimé leur volonté d’exploiter au mieux les moyens de calcul LHC du LPSC et de s’impliquer plus encore dans le calcul LHC. Ainsi, considérant que le site, depuis sa mise en fonctionnement, a démontré sa capacité à assurer un service de qualité, l’équipe grille du LPSC a demandé le passage du nœud au niveau Tier 2 de WLCG. Cette demande implique un engagement du site auprès des expériences qu’il supporte en termes de ressources et de qualité de service.

Au mois de juillet dernier, vu les bonnes performances du site et l’implication du personnel du laboratoire, la collaboration grille LHC a approuvé sans réserve le passage du nœud de grille du LPSC au niveau Tier 2 de WLCG.
Il rejoint ainsi les 7 autres Tier 2 français.

Sabine CREPE-RENAUDIN

[1] http://lpsc.in2p3.fr/informatique/e...

[2] http://lcg.web.cern.ch/LCG/

[3] https://ciment.ujf-grenoble.fr

n°18
Octobre
2011
Record d’affluence pour la grille

Le Technical Forum « EGI » organisé par le CC-IN2P3, EGI.eu, l’European Grid Infrastructure et France Grilles, s’est tenu du 20 au 23 septembre 2011 au Centre de congrès de Lyon. Plus de 670 congressistes ont participé à l’ensemble des événements co-localisés avec ce forum, ce qui est un record d’affluence depuis 10 ans dans le domaine de la grille.

Les discussions et présentations ont porté sur les résultats obtenus lors des six derniers mois mais la communauté a également mis à profit cette opportunité pour une réflexion sur le bilan de la commission européenne lors de la revue en début d’été : maintenant que l’infrastructure de production de la grille EGI est pleinement opérationnelle, les experts de la commission ont souhaité que la communauté approfondisse les aspects non opérationnels liés à cette infrastructure de production. Il s’agit à présent de travailler à l’amélioration de la valorisation, de la communication, d’étendre les communautés utilisatrices et plus globalement de renforcer tous les aspects qui participent à la pérennité de l’infrastructure en place. Le défi des prochains mois sera d’impliquer les communautés et les initiatives nationales autour de ces activités connexes à l’infrastructure. Pour cela, un réseau de « coordinateurs des initiatives de grilles nationales » sera mis en place. Ces coordinateurs travailleront avec les équipes de EGI.eu pour faire le lien entre les activités menées autour des grilles de production, que ce soit au niveau national, entre les initiatives nationales ou dans le cadre de la stratégie européenne. La première étape sera de définir une stratégie d’attraction de nouvelles communautés utilisatrices. Élargir le nombre et la diversité des utilisateurs est un élément important qui motivera les investissements futurs, que ce soit au niveau national ou européen. De la même façon que les dix dernières années ont été consacrées essentiellement à bâtir l’infrastructure actuellement en place, la prochaine étape sera de construire le réseau humain qui sera le socle des domaines « non opérationnels ». La définition d’une stratégie à long terme pour la communauté sera donc un point fort pour les six mois à venir.

Pendant le forum, de nombreux participants ont visité les nouveaux locaux techniques du Centre de Calcul de l’IN2P3. Les groupes français ont pu présenter leurs travaux et faire des démos sur le stand France Grilles. Le cadre exceptionnel de la soirée de gala a été particulièrement appréciée des congressistes qui ont eu l’opportunité de rejoindre en bateau sur la Saône l’Abbaye de Collonges, tenue par Paul Bocuse.

La communauté s’est donnée rendez-vous au « EGI Community Forum 2012 » qui aura lieu du 26 au 30 mars 2012 à Munich en Allemagne. Ce forum sera l’occasion de présenter les services, technologies et outils disponibles pour la communauté scientifique. Les développeurs d’application ou de services distribués et les communautés de recherche utilisatrices sont invitées à venir participer ensemble à l’établissement de la stratégie pour le futur de la communauté EGI.

Geneviève ROMIER

n°18
Octobre
2011
L’innovation et la recherche au coeur des produits SysFera

La société SysFera a été fondée à Lyon en mars 2010 par David Loureiro (PDG), Eddy Caron et Frédéric Desprez, après un processus d’incubation démarré en 2007. C’est une spin-off Inria issue de l’équipe de recherche Graal (au sein de laquelle Frédéric Desprez est Directeur de Recherche et Eddy Caron Maître de Conférences HDR, et où David a travaillé pendant deux ans) du Laboratoire de l’Informatique du Parallélisme de l’École normale supérieure de Lyon.

En plus d’industrialiser le logiciel DIET, développé dans l’équipe Graal, elle a pour but de développer des modules et outils autour de ce logiciel, afin de le rendre utilisable en production par des entreprises. La solution complète a pour nom SysFera-DS. Ce besoin a été identifié en 2007 suite à l’adoption de la solution DIET au sein du projet Décrypthon [1], le pendant informatique du Téléthon, montrant ainsi qu’il existait un besoin et donc un marché. DIET a aussi été utilisé pour de nombreux autres projets autour du calcul et notamment un projet de cosmologie mené par le CRAL et l’IN2P3. SysFera-DS est désormais une suite logicielle complète permettant la mutualisation et le management d’infrastructures HPC hétérogènes et distribuées. Elle offre aux utilisateurs et aux administrateurs des moyens simples (au choix : interface web, APIs, ligne de commande), évolutifs et transparents d’accéder à ces ressources.

Par son histoire et par la volonté de ses dirigeants, la société SysFera entretient des liens très forts avec la recherche. Deux des cofondateurs exercent toujours leur métier de chercheur dans l’équipe Graal, en plus d’occuper les fonctions de conseillers scientifiques de la société. L’effectif de la société est en grande partie consacré à la R&D, avec neuf personnes sur les douze que compte l’entreprise. Parmi elles, cinq sont titulaires d’un doctorat, quatre d’un diplôme d’ingénieur, et toutes ont une expérience dans la recherche. L’équipe travaille en étroite collaboration avec l’équipe Graal mais également avec Gaël le Mahec de l’équipe MIS de l’Université de Picardie Jules Verne (encadrement commun d’une thèse à partir de 2012).

SysFera collabore également avec l’IN2P3 dans le cadre du projet d’EQUIPEX CAPRI qui est une plate-forme de Cloud orientée gestion de grosses données, ouverte aux chercheurs et aux industriels, répartie sur quatre sites en France. SysFera participe à ce projet en tant que fournisseur de solution pour la gestion des différents centre de calcul, ainsi qu’en tant qu’utilisateur. Une seconde collaboration concerne l’Institut de Recherche Technologique Lyon BioTech, qui rassemble les acteurs majeurs lyonnais autour de l’infectiologie.

Augustin RAGON (Marketing and Communication Officer)

[1] Projet AFM/CNRS/IBM. 

n°18
Octobre
2011
Sauvegarde au CC-IN2P3 : vers un service plus performant
L'une des librairies du CC-IN2P3 (© CC-IN2P3 / F. de Stefanis)

Outre le traitement et le transfert de données à très haut débit, l’une des missions du Centre de Calcul de l’IN2P3 est de sauvegarder les données de l’ensemble des laboratoires de l’IN2P3.

Organisé de façon hiérarchique, le système de sauvegarde du CC-IN2P3 implique que les données soient écrites sur plusieurs médias : d’abord sur disques puis sur bandes. Pour des questions de sécurité, le CC-IN2P3 est également chargé de transférer une copie des données sur bandes dans le bâtiment de l’Institut de Physique Nucléaire de Lyon, situé à quelques centaines de mètres de celui du CC-IN2P3.

Ce backup permet d’éviter de perdre toutes les données en cas d’incendie du Centre de Calcul, par exemple.

Le logiciel de sauvegarde utilisé par le CC-IN2P3 est appelé Tivoli Storage Manager (TSM). Produit IBM, ce logiciel permet de sauvegarder les systèmes informatiques des laboratoires afin de leur permettre une reprise d’activité en cas de perte de données, mais également certaines données expérimentales brutes.

Un milliard de fichiers sont ainsi présents dans le système de sauvegarde, dans près de 2000 cartouches ayant chacune une capacité de 800 Go et pouvant être montées dans l’un des 20 dérouleurs dont dispose les librairies du CC-IN2P3.

Utilisé par l’ensemble des personnels, ce système reste pourtant assez méconnu. Le système de sauvegarde du CC-IN2P3 est pourtant en train d’évoluer puisqu’il est en passe d’être complètement revu grâce à l’installation de quatre nouveaux serveurs AIX (au lieu des deux installés en 2007).

Cette évolution dans le système de stockage du CC-IN2P3 va permettre d’améliorer le service rendu aux utilisateurs, en particulier en augmentant la bande passante et en permettant une meilleure répartition des données. Ces changements devraient ainsi réduire les temps de restauration des données.

GAELLE SHIFRIN ET REMI FERRAND

n°18
Octobre
2011
Conférence SuperComputing 2011

11-18 Novembre, à Seattle

La Conférence SuperComputing 2011 aura lieu du 11 au 18 novembre à Seattle.

Le CC-IN2P3 et France Grilles seront présents à cet évènement, au cours duquel ils animeront un stand.

Voir le détail de cette conférence à venir,cliquer ici.

Workshop LCG-France

30 Novembre et 1°décembre 2011 - CC-IN2P3 (Villeurbanne)

LCG-France organise, 2 fois par an, une rencontre des sites.

La session d’Automne 2011 se tiendra à Villeurbanne, au CC-IN2P3 les 30 novembre et 1er décembre.

Les inscriptions sont ouvertes jusqu’au 23 novembre.

Vous trouverez tous les détails sur la page Indico dédiée à ce workshop.

Webimaire : Energy Efficient Ethernet

Jeudi 1° décembre 2011

Le pôle ARESU de la DSI-CNRS organise avec HP un webinaire sur le standard EEE 802.3az : un standard plus respectueux de l’environnement.

L’orateur est M. Yannick Castano. Architecte Solutions chez HP Networking.

L’agenda du Webinaire :

  1. Introduction
  2. Le standard EEE 802.3az
  3. Des technologies ASIC plus intelligentes
  4. Les développements à venir
  5. Les solutions HP pour le Green Networking
  6. Conclusion

Le webinaire aura lieu jeudi 01/12/2011 à 15h00 (durée estimée 1h30).
Il sera diffusé par Webex et en VoIP.

Pour vous inscrire, cliquez ici.

Conférence CHEP 2012

New-York, 21-25 Mai 2012

La prochaine conférence Internationale CHEP (Computing in High Energy and Nuclear Physics) se déroulera à New-York, au Printemps 2012.

Vous pouvez d’ores et déjà consulter le site dédié à cette conférence en cliquant ici.

Formation Quattor

7 et 8 décembre 2011, Centre de Calcul (Villeurbanne)

Une formation Quattor est organisée les 7 et 8 décembre prochain au Centre de Calcul de l’IN2P3, à Villeurbanne.

L’agenda sera prochainement en ligne en cliquant sur cette page.

Les inscriptions sont ouvertes. Ne tardez pas à vous inscrire, le nombre de places est limité.

Je vous rappelle que vous pouvez retrouver les formations organisées par France Grilles sur le site dédié à la formation (cliquez ici). Vous pouvez également vous abonner / désabonner à la liste de diffusion formation-L@france-grilles.fr sur ce site formation.france-grilles.fr.

Virginie Dutruel

n°18
Octobre
2011
L’institut des Grilles et du Cloud recrute

L’institut des Grilles et du Cloud recrute un ingénieur de recherche en CDD à Clermont.

Vous trouverez le profil détaillé en pièce jointe.

PDF - 53.6 ko

n°18
Octobre
2011
Ouvrages sur les grilles

A lire

Frédéric Magoulès, Professeur à l’Ecole Centrale de Paris, est auteur et co-auteur de nombreux livres, dont plusieurs consacrés à la thématique des grilles.

Extrait bibliographique :

 

Fundamentals of Grid Computing Theory, Algorithms and Technologies

Author(s) : Frédéric Magoulès
Series : Chapman and Hall/CRC Numerical Analy and Scient Comp. Series
Hardback : 322 pages
ISBN : 9781439803677, ISBN 10 : 1439803676

With contributions from : L. Arantes, J.M. Bahi, X. Besseron, M.-S. Bouguerra, C. Cerin, R. Couturier, H. Fkaier, T. Gautier, F. Legond-Aubry, F. Magoulès, T.M.H. Nguyen, J.-M. Pierson, E. Saule, P. Sens, A. Sider, J. Sopena, L.-A. Steffenel, F. Teng, D. Trystram and L. Yu.

Introduction to Grid Computing

Author(s) : Frédéric Magoulès ; Jie Pan ; Kiat-An Tan ; Abhinit Kumar
Series : Chapman and Hall/CRC Numerical Analy and Scient Comp. Series
Hardback : 334 pages
ISBN : 9781420074062, ISBN 10 : 1420074067

Grid Resource Management Toward Virtual and Services Compliant Grid Computing

Author(s) : Frédéric Magoulès ; Thi-Mai-Huong Nguyen ; Lei Yu
Series : Chapman and Hall/CRC Numerical Analy and Scient Comp. Series
Hardback : 306 pages
ISBN : 9781420074048, ISBN 10 : 1420074040

Les serveurs du Centre de Calcul permettent de chauffer des bâtiments.

Sur le Net

Enviscope, le quotidien de l’environnement, de l’innovation et de l’eco entreprise, a publié un article sur la nouvelle salle machine du Centre de calcul à Villeurbanne.

Lire l’article.

Revivez les rencontres scientifiques France Grilles (Lyon, septembre 2011)

WebCast

Le GIS France Grilles a organisé ses premières rencontres scientifiques à Lyon, le 19 septembre 2011.

A cette occasion, le comité scientifique des rencontres 2011 a décerné le premier prix France Grilles à "Utilisation de grilles de calcul pour la génomique comparative", présenté par Simon Penel, Laboratoire de Biométrie et Biologie Evolutive.

Le second prix a été décerné à "CTACG - CTA Computing Grid", présenté par Komin Nukri, Laboratoire d’Annecy-le-vieux de Physique des Particules. Le comité de programme a décerné le prix "Poster" à "gLite sur Grid’5000 : vers une plate-forme d’expérimentation à taille réelle pour les grilles de production" de Sébastien Badia, Lucas Nussbaum.

L’équipe Webcast du Centre de Calcul a filmé les différentes interventions des participants à ces premières rencontres scientifiques France Grilles.

Les vidéos sont désormais disponibles sur le site Webcast du Centre de Calcul. Pour les visionner, cliquez ici.

Rendez-vous en 2012 pour la prochaine édition des rencontres !