imprimer
n°12
Juillet
2010
Nouvelle salle informatique

Le Centre de Calcul de l’IN2P3 (CC-IN2P3), en partenariat avec le CEA/DSM/Irfu, fournit les moyens de calcul pour l’ensemble de la communauté française de physique corpusculaire. Dans ce cadre, le CC-IN2P3 héberge l’un des onze centres mondiaux de premier niveau pour le traitement des données des expériences installées sur l’accélérateur LHC du CERN (Genève). Cet engagement de premier plan au niveau international nécessite sur quelques années un décuplement des ressources informatiques incompatible avec une infrastructure conçue il y a 20 ans.

Financée par l’État par l’intermédiaire du CNRS, et par la Région Rhône-Alpes, la construction du nouveau bâtiment est réalisée sur un terrain villeurbannais cédé par l’Université Claude Bernard Lyon 1, sur le campus de la Doua. La nouvelle salle informatique d’une superficie d’environ 900 m2, permettra au CC-IN2P3 d’offrir un service encore plus performant à sa communauté de recherche, en remplissant ses engagements internationaux vis-à-vis du projet LHC. Cette salle bénéficiera également aux laboratoires de recherche de la Région Rhône-Alpes, via notamment son projet de Traitement de Données et d’Informatique Distribuée en Rhône-Alpes (TIDRA) qui met en œuvre la technologie des grilles de calcul. Elle sera modulaire, afin de pouvoir monter en puissance au fil du temps. Cette modularité permettra de s’adapter à (...)

lire la suite

JIs

Septièmes Journées Informatiques IN2P3/IRFU

Les septièmes journées informatiques (JI) [5] du réseau des informaticiens de l’IN2P3 et de l’IRFU (RI3) ont eu lieu du 17 au 20 mars au centre Paul Langevin à Aussois (Savoie). Elles ont réuni environ 150 informaticiens, ASR (administrateurs de systèmes et réseaux) et développeurs confondus. Ainsi se confirme la tendance de l’augmentation du nombre de participants aux JI, depuis les débuts avec parfois quelque cinquante auditeurs dans le public.

lire la suite

GANIL Root Utilities

Un serveur de spectres et son client

Pour un bon fonctionnement, les systèmes d’acquisition de données évitent de travailler en aveugle. Ils possèdent des outils de mesures des flux et de la qualité des données acquises. Au Ganil, pour répondre à ce besoin, nous avons GRU (Ganil ROOT Utilities ) et Vigru (Visualisation GRU) . Ces outils sont largement basés sur les librairies ROOT développées au CERN, ROOT (root.cern.ch) étant « un environnement orienté objet ayant pour objectif de résoudre le défi de l’analyse de données issues de la physique des hautes énergies. ». L’ensemble a été programmé en C++.

lire la suite

Actualités et développements

Les Forges Logicielles

Les forges logicielles sont issues du milieu du logiciel libre. Pour faire collaborer des développeurs issus de tous milieux et de tous pays, il fallait des outils collaboratifs accessibles à tous, et un lieu pour échanger codes et conseils. Ainsi est née SourceForge [3], première forge logicielle, qui reste aujourd’hui encore la référence. Le concept : réunir un ensemble de services pour le développement collaboratif, sur une plate-forme centralisée et accessible par le web.

lire la suite

Infrastructure

Un nouveau routeur au CC-IN2P3

Au delà de sa puissance de calcul, le Centre de Calcul de l’IN2P3 est caractérisé par sa capacité à recevoir, stocker, distribuer et traiter d’énormes quantités de données. Le traitement de masses de données nécessite de pouvoir déplacer celles-ci aussi efficacement que possible entre les unités de stockages et les serveurs de calcul.

lire la suite

Equipe

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Virginie Dutruel, Sébastien Grégoire, Eric Legay, Gaëlle Shifrin et Tiffany Thome

Interview

Fabio HERNANDEZ

#TITRE
Directeur Adjoint du Centre de Calcul de l'IN2P3/CNRS

lire l'interview

Agenda
Inauguration France-Grille
La journée d’inauguration du GIS France Grilles se déroulera le 24 Septembre au siège du CNRS. (...)

en savoir plus

Journées Astroparticules
Les journées astroparticules se dérouleront à Villeurbanne, à l’Amphithéâtre du Centre de Calcul de (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2010 CCIN2P3
n°12
Juillet
2010

Centre de Calcul de l’IN2P3

Nouvelle salle informatique

Le Centre de Calcul de l’IN2P3 (CC-IN2P3), en partenariat avec le CEA/DSM/Irfu, fournit les moyens de calcul pour l’ensemble de la communauté française de physique corpusculaire. Dans ce cadre, le CC-IN2P3 héberge l’un des onze centres mondiaux de premier niveau pour le traitement des données des expériences installées sur l’accélérateur LHC du CERN (Genève). Cet engagement de premier plan au niveau international nécessite sur quelques années un décuplement des ressources informatiques incompatible avec une infrastructure conçue il y a 20 ans.

Financée par l’État par l’intermédiaire du CNRS, et par la Région Rhône-Alpes, la construction du nouveau bâtiment est réalisée sur un terrain villeurbannais cédé par l’Université Claude Bernard Lyon 1, sur le campus de la Doua. La nouvelle salle informatique d’une superficie d’environ 900 m2, permettra au CC-IN2P3 d’offrir un service encore plus performant à sa communauté de recherche, en remplissant ses engagements internationaux vis-à-vis du projet LHC. Cette salle bénéficiera également aux laboratoires de recherche de la Région Rhône-Alpes, via notamment son projet de Traitement de Données et d’Informatique Distribuée en Rhône-Alpes (TIDRA) qui met en œuvre la technologie des grilles de calcul. Elle sera modulaire, afin de pouvoir monter en puissance au fil du temps. Cette modularité permettra de s’adapter à toutes les évolutions des programmes scientifiques de la discipline. Dès 2011, la capacité de la nouvelle salle sera équivalente à celle de l’ancienne. A terme elle sera 4 à 5 fois supérieure.

Les puissances électriques nécessaires à l’alimentation d’un centre de calcul tel que le CC-IN2P3 sont très importantes. Cette puissance se trouve essentiellement dissipée sous forme de chaleur qu’il faut évacuer. Le CC-IN2P3, soucieux de limiter l’impact sur l’environnement, a choisi de mettre en place les équipements nécessaires afin de récupérer la chaleur produite et de la mettre à la disposition de l’Université afin de chauffer des bâtiments du campus. Ceci est particulièrement pertinent dans le cadre du plan campus de l’UCBL qui prévoit la construction de nouveaux bâtiments proches du CC-IN2P3 en vue de créer un « quartier de la physique ».

La très haute technicité du bâtiment à construire a justifié l’utilisation d’une procédure dérogatoire de conception-réalisation, première du genre au CNRS. Le permis de construire a été déposé le 23 décembre 2009, les travaux ont commencé en avril 2010 et la nouvelle salle sera disponible dès le premier trimestre 2011.

C’est dans ce contexte que le Centre de Calcul de l’IN2P3 / CNRS a organisé le mardi 8 juin 2010 la cérémonie de la pose de la première pierre du nouveau bâtiment. Deux moments forts ont marqué cette cérémonie :
- D’une part, la prise de parole des porteurs et des partenaires du projet, qui se sont exprimés sur l’importance de l’outil dont va très prochainement disposer le Centre de Calcul de l’IN2P3.
- D’autre part, la très symbolique pose de la première pierre. Les orateurs, alors équipés de casques et armés de truelles, se sont attelés à la pose de moellons à l’endroit prévu à cet effet. Tout le monde s’est ensuite réuni autour d’un cocktail afin de clôturer cette cérémonie.

n°12
Juillet
2010
Fabio HERNANDEZ

Directeur Adjoint du Centre de Calcul de l’IN2P3/CNRS

Après 18 ans passés au Centre de Calcul de l’IN2P3/CNRS, Fabio HERNANDEZ part aujourd’hui vers de nouveaux horizons, direction la Chine…

Quelques mots sur votre parcours professionnel...

Après l’obtention du diplôme d’ingénieur en informatique à l’école d’ingénierie de l’Université de Los Andes à Bogota (Colombie), j’ai rejoint l’équipe du centre de calcul de l’Université en tant qu’ingénieur système pour travailler sur l’ordinateur central, utilisé pour les activités de recherche. Trois ans après, dans le cadre d’un programme de coopération entre l’IN2P3 et l’Université, il m’a été proposé de faire un séjour d’une année au Centre de Calcul de l’IN2P3 à Lyon. C’est ainsi qu’en 1992 j’ai rejoint le CC-IN2P3 en tant que visiteur : ma première mission a été de concevoir et de développer un outil de transfert de données entre la ferme de calcul basée sur des stations de travail sous Unix, en phase initiale de mise en production à l’époque, et l’ordinateur central (mainframe) permettant ainsi l’accès à la librairie automatisée à cartouches depuis la ferme, alors dédiée aux travaux de simulation. Par la suite, j’ai eu l’opportunité de poursuivre mes études en parallèle avec mes activités professionnelles au CC-IN2P3, jusqu’à l’obtention en 1995 un Diplôme d’Etudes Approfondies (DEA) à l’INSA de Lyon et Université Lyon I dont le sujet central était la visualisation des données scientifiques.

En 18 ans quelles sont les différentes fonctions que vous avez exercées au Centre de Calcul de l’IN2P3/CNRS ?

Pendant les 18 dernières années passées aux CC-IN2P3, j’ai eu l’opportunité de contribuer de l’intérieur à la transition depuis un modèle de calcul centralisé autour d’un ordinateur central jusqu’à la distribution des moyens de traitement et de stockage au niveau planétaire, comme c’est le cas actuellement avec la grille de calcul. Ma contribution technique a été principalement dans le domaine du transfert et du stockage de données en utilisant des réseaux et des dispositifs de stockage de masse à haute performance.

Depuis le début des années 2000, j’ai été fortement impliqué dans le développent de la grille de calcul pour les activités de recherche à travers divers projets d’envergure régionale, nationale et européenne. Le plus abitieux d’entre eux a débouché sur l’initiative actuelle de construction d’une infrastructure de support à la recheche européenne basée sur l’intégration des plate-formes de grille déployées et opérées par chaque pays participant.

Pendant toute cette période, j’ai assuré plusieurs fonctions telles chef de projet, chef d’équipe, directeur adjoint et responsable technique au niveau national d’un projet institutionnel.

Vous avez aujourd’hui accepté un poste en Chine...

Je pars en Chine où j’assurerai une mission qui m’a été confiée par le Ministère des Affaires Etrangères et Européennes auprès de l’Académie de Sciences de Chine à Pékin. Je serai basé à l’Institut de Physique de Hautes Energies de Pékin (IHEP).

La mission, d’une durée de 2 ans, consiste à développer davantage les liens existants entre des organismes de recherche Français et Chinois dans le domaine du traitement de données, en particulier pour les disciplines pour lesquelles les technologies de grilles de calcul peuvent apporter de la valeur, comme c’est le cas de la physique des hautes énergies. L’IN2P3 et l’IHEP sont deux institutions fortement impliquées dans le traitement de données issues du LHC qui travaillent ensemble depuis plusieurs années.

Qu’est-ce qui a motivé votre départ ?

La possibilité de continuer mon développement professionnel et personnel dans un contexte différent et fortement stimulant a été le moteur de ma décision. Les attraits inhérents au pays d’accueil ont sans doute influencé notre décision familiale de partir découvrir une autre culture et une autre langue dans un contexte en constante évolution.

Propos recueillis par Tiffany Thomé

n°12
Juillet
2010
Septièmes Journées Informatiques IN2P3/IRFU

Les septièmes journées informatiques (JI) [1] du réseau des informaticiens de l’IN2P3 et de l’IRFU (RI3) ont eu lieu du 17 au 20 mars au centre Paul Langevin à Aussois (Savoie). Elles ont réuni environ 150 informaticiens, ASR (administrateurs de systèmes et réseaux) et développeurs confondus. Ainsi se confirme la tendance de l’augmentation du nombre de participants aux JI, depuis les débuts avec parfois quelque cinquante auditeurs dans le public.

Ces journées ne se veulent pas un tour d’horizon systématique, mais plutôt un état photographique des nouvelles évolutions et des sujets d’actualité. (« Quand c’est intéressant, on en parle. ») Les 38 orateurs ont donc couvert des sujets très variés dans les 18 sessions plénières. La décision du comité de programme de remplacer le schéma des séances parallèles, souvent polarisées ASR et DEV respectivement, par une séance unique commune avec une alternance permanente entre les deux pôles était généralement bien reçue et a probablement contribué à une bonne assiduité pendant les présentations.

Ces journées ne se veulent pas un tour d’horizon systématique, mais plutôt un état photographique des nouvelles évolutions et des sujets d’actualité. (« Quand c’est intéressant, on en parle. ») Les 38 orateurs ont donc couvert des sujets très variés dans les 18 sessions plénières. La décision du comité de programme de remplacer le schéma des séances parallèles, souvent polarisées ASR et DEV respectivement, par une séance unique commune avec une alternance permanente entre les deux pôles était généralement bien reçue et a probablement contribué à une bonne assiduité pendant les présentations.

Des présentations communes

Quelques sujets illustrés par leurs orateurs sont restés dans la mémoire : Nous avons vu le potentiel étonnant d’optimisation qui peut être obtenu par l’utilisation de GPUs, qui a su nous convaincre également que le calcul parallèle bien fait est un métier et ne s’improvise pas. Les solutions présentées pour le réseau et l’installation des systèmes ont démontré qu’il n’existe pas de solutions préfabriquées pour tout, ou du moins pas encore. Du côté industriel, une présentation par HPlabs [2] nous a rappelé combien il y a de la physique dans l’informatique de pointe, en dépassant le cadre commercial habituel avec une bonne adaptation à notre niveau d’intérêt. L’éternelle Apple était représentée par la référence aux bourses ARTS [3], ce qui a suscité quelques idées et candidatures, on peut l’espérer. Malgré l’arrivée de la grille, ou plus précisément des grilles de calcul, à leur âge de maturité, beaucoup de développements pour améliorer le stockage et le transfert des données, sont encore nécessaires. Et la commercialisation du « calcul nébuleux » cloud computing a tout juste commencé, avec l’apparition de la virtualisation comme une réponse valable à la nécessité pour les jobs de calcul, d’une reproduction exacte et fiable de l’environnement d’exécution à travers les matériels et sites. Les considérations écologiques, le calcul vert, ont commencé à prendre part de la spécification à l’exploitation des infrastructures et systèmes informatiques, comme le montre aussi la création du groupe EcoInfo [4] au sein du CNRS.

Et le développement durable sous une autre lumière a été un argument fort pour le choix du cadriciel EPICS dans le commande-contrôle de nouvelles expériences, parmi elles ITER avec une échelle de temps affichée de quarante ans. Cependant, le temps de vie de NARVAL, application pour l’acquisition des données en physique nucléaire, a commencé il y a 10 ans seulement, ce qui semble déjà énorme pour un logiciel. La sécurité informatique nécessite une adaptation permanente aux risques et menaces extérieures, qui sont également en évolution continue. La persistance des données des expériences de physique est un sujet qui mérite notre attention pour les années à venir. Des discussions et rencontres sont en cours parmi des acteurs venant du CERN, de DESY, Fermilab et d’autres laboratoires ; en France, une seule personne y participe officiellement.

Une séance a donné lieu à une discussion qui était de loin la plus animée de ces JI : l’environnement de travail collaboratif. Depuis longtemps, on ne peut plus considérer que courriel et internet avec un bon navigateur constituent en eux-mêmes la réponse aux besoins d’outils informatiques de travail. Les offres publiques comme l’omniprésent Google permettent de constituer rapidement un agenda partagé, un profil itinérant ou un site d’échange de documents. Mais qui n’a pas déjà organisé un Doodle sur une question sensible, espérant que le contenu du sondage soit vraiment confidentiel ? Le centre de calcul IN2P3/IRFU (CC) propose déjà quelques solutions in house. Mais de toute évidence, une structure plus transversale pourrait éviter d’implémenter de nombreuses solutions individuelles et locales pour des problèmes généraux. Qui jouera le rôle fédérateur dans la communauté de l’enseignement supérieur et de la recherche : RENATER, le RI3, la DSI, … ?

Des espaces de discussions privilégiés

Les sessions plénières étaient complétées par deux tables rondes parallèles, orientées « ASR » et développement respectivement. Dans la fraction ASR s’est exprimée une grande inquiétude vis-àvis de l’évolution du métier. Le spectre de l’info-gérance, déjà une réalité au CEA, ne suscite guère de confiance dans les intentions des décideurs. D’autre part, prétendre que l’ASR traditionnel, qui équipe et maintient postes de travail et réseaux, aura un avenir dans les laboratoires de recherche, serait illusoire. En effet dans le contexte actuel, les PCs et internet sont omniprésents jusque dans les foyers. La nécessité d’une évolution du métier est évidente ; mais elle n’est pas visible. En conclusion, la communauté souhaiterait voir des messages plus clairs, et une participation de l’IN2P3 dans les activités RESINFO serait la bienvenue.

La fraction des développeurs (ou ceux qui avaient décidé de s’intéresser plutôt à cette facette du métier ce jour-là) a reçu avec beaucoup d’enthousiasme l’installation d’une « forge » par le CC à Lyon. Un groupe autour de David Chamont avait réfléchi depuis 2008 à la question de reproduire l’effet fertilisant de SourceForge dans une sorte de RI3-forge. Quoique la définition même d’une forge n’est pas univoque au sein du groupe, il est acquis qu’elle va bien au-delà d’un simple dépôt de code ou système de gestion de versions. Et quelques points demandent des solutions spécifiques à notre domaine de recherche de par son contexte de collaborations internationales : authentification centralisée, équilibre entre les enjeux et les risques lors de l’exposition de son propre code, un besoin fort d’obtenir des conseils et règles concernant la publication de code source et le choix des licences. C’est un appel à l’adresse de la direction qui a été lancé. Car pour l’instant, aucun moyen officiel n’est attribué à une forge propre à notre communauté.

Pendant toute la durée de ces Journées Informatiques, quelques dizaines d’affiches avaient été exposées en poster session, une bonne occasion de discuter avec les auteurs lors d’une séance spéciale. On aurait souhaité voir plus de deux laboratoires à s’appliquer à l’exercice de présenter quelques projets en cours dans leur laboratoire à la communauté.

Une semaine réussie

En résumé, cette semaine de la septième édition de ces JI IN2P3/IRFU était une occasion de rencontres et d’échanges très réussie.

L’organisation reposait sur deux comités présidés par Solveig Albrand (organisation locale) et Nadine Neyroud (programme), qui ont fait un excellent travail, laissant peu de choses à améliorer. Le programme était arrondi par un repas convivial au Fort Marie Christine, et la présentation surprenante [5] sur l’utilisation de l’informatique dans un environnement très hostile, dans les températures les plus basses sur terre (hors LHC). Les JI ont vocation à devenir une institution du RI3 qui réunit la majorité de ses membres généralement distribués sur le territoire national, de manière régulière et productive.

Moufida Dziri-Marce, Dirk Hoffmann, Pierre-François Honoré

[1] http://ji.in2p3.fr/JI10/

[2] http://www.hpl.hp.com/

[3] http://www.apple.com/uk/education/arts/

[4] http://www.ecoinfo.cnrs.fr

[5] http://www.gdargaud.net/Antarctica/

n°12
Juillet
2010
Un serveur de spectres et son client

Pour un bon fonctionnement, les systèmes d’acquisition de données évitent de travailler en aveugle. Ils possèdent des outils de mesures des flux et de la qualité des données acquises. Au Ganil, pour répondre à ce besoin, nous avons GRU (Ganil ROOT Utilities ) et Vigru (Visualisation GRU) . Ces outils sont largement basés sur les librairies ROOT développées au CERN, ROOT (root.cern.ch) étant « un environnement orienté objet ayant pour objectif de résoudre le défi de l’analyse de données issues de la physique des hautes énergies. ». L’ensemble a été programmé en C++.

Bien que GRU permette aussi d’analyser les données Ganil, nous ne développerons pas ce chapitre qui est très lié au format de données Ganil. Par contre, nous exposerons dans ce document la partie serveur de spectres et le client de visualisation associé qui peuvent être facilement utilisés dans d’autres applications. Le mot « spectre » est un terme générique désignant des histogrammes ou des graphes de 1 à 3 dimensions.

Principe

Pour minimiser l’influence de la visualisation en terme de performance, de ressource et de stabilité sur le processus traitant les données et donc générant les spectres, la visualisation est un application cliente distincte et celle-ci ne reçoit des copies de spectres que sur requêtes réseaux.

Le Serveur

Le serveur de spectre se présente comme une librairie que l’on ajoute à une application quelconque génératrice de spectres. Ce serveur contient une petite base de données de spectres. Celle-ci facilite les recherches et le classement par nom, famille ou caractéristique des spectres. L’application désirant rendre ses spectres visibles n’a qu’à déclarer ses spectres dans la base de données afin qu’ils soient immédiatement disponibles sur le réseau. Les spectres peuvent être de deux formats, en fonction du type de serveur choisi. Ils sont soit de type ROOT (TH, Tgraph... pour les connaisseurs de ROOT) soit ce sont de simples vecteurs d’entier. Dans le premier cas nous choisirons le serveur basé sur les classes ROOT. Dans le second cas, principalement utilisé en solution embarqué, un serveur SOAP préférable car beaucoup plus léger.

Le Client Vigru

Le client Vigru est donc une application à part entière. Son utilisation est simplifiée au maximum par l’utilisation d’une interface graphique. Il permet de se connecter à un ou plusieurs serveurs de type ROOT ou/et SOAP. Lors de la première connexion au serveur, Vigru charge les différentes listes ordonnées des spectres. L’utilisateur choisit ensuite les spectres à afficher. Le rafraîchissement des spectres se fait à la demande ou périodiquement. Vigru propose l’affichage multiple sur une ou plusieurs pages accessibles par onglets.

Toute la mise en page est configurable et enregistrable. Une fois l’affichage réalisé, il est possible d’appliquer bon nombre de traitements spécifiquement développés ou disponibles dans les librairie ROOT que nous avons mis en avant via des boutons sur l’interface graphique (Log X,Y,Z, Zoom, Fit, Statistique, détection de pics multiples, FFT...). Vigru peut également soumettre des commandes aux serveurs comme la remise à zéro d’histogrammes. Lorsque le nombre de spectres est important (plusieurs milliers) le classement des spectres par famille (ou dossier) facilite le classement et donc l’accès à un spectre particulier.

Conclusion

Ce couple serveur de spectre/visualisation est actuellement utilisé dans 3 applications :
- évidement dans GRU dont il est issu.
- Narval au Ganil et au LNL pour l’affichage des spectres d’acquisition de physique nucléaire
- dans le développement de la carte de numérisation NUMEXO2 où ce couple client/serveur SOAP fait office d’oscilloscope.

Les sources et les informations complémentaires à propos GRU et Vigru sont disponibles sur ce site.

Luc Legeard

n°12
Juillet
2010
Les Forges Logicielles

Les forges logicielles sont issues du milieu du logiciel libre. Pour faire collaborer des développeurs issus de tous milieux et de tous pays, il fallait des outils collaboratifs accessibles à tous, et un lieu pour échanger codes et conseils. Ainsi est née SourceForge [1], première forge logicielle, qui reste aujourd’hui encore la référence. Le concept : réunir un ensemble de services pour le développement collaboratif, sur une plate-forme centralisée et accessible par le web.

SourceForge offre gratuitement, à toute équipe travaillant sur un projet de logiciel libre, un espace dédié pour gérer le code source du projet, des forums de discussions pour échanger entre programmeurs et utilisateurs, la gestion de documents, le suivi des bugs, etc.

Les développeurs de l’IN2P3 qui participent à de grandes expériences de physique bénéficient souvent d’une forge mise en place pour l’expérience [2]. Pour tous les autres, le centre de calcul ouvre progressivement sa forge. L’intérêt d’une telle plate-forme pour l’institut est multiple :
- servir de vitrine pour ses développements logiciels ;
- aider les agents de l’IN2P3 à mieux connaître les travaux des uns et des autres et ainsi mieux les réutiliser ;
- héberger des projets privés, que ce soit pour des raisons de partenariat avec l’industrie, ou simplement parce que les auteurs ne se sentent pas prêts à exposer leur code.

Le Centre de Calcul ayant déjà un service mature pour la gestion des dépôts de code. C’est pourquoi les ingénieurs du centre ont opté pour un moteur de forge complémentaire, modeste et de conception récente : Redmine. Ce moteur à plusieurs qualités, notamment une vision d’ensemble des projets avec une notion de sous-projets, une administration qui se fait entièrement par le web, et le framework web réputé sur lequel il s’appuie : RubyOnRails.

Une fois le compte activé pour se connecter à la forge, il est possible de demander à être rattaché à un projet ou de créer directement le sien. Chaque membre d’un projet peut avoir un ou plusieurs rôles, définissant ses droits :
- les "Reporters", limités à soumettre des bugs, demander des fonctionnalités, poster des messages, et voir tous les documents ;
- les "Programmers", qui peuvent également contribuer aux documents disponibles ;
- les "Managers", qui ont tous les droits sur le projet.

Actuellement, différentes fonctionnalités existent pour les membres, comme :
- la possibilité de consulter toutes les révisions du dépôt de code du projet, pour pratiquement tous les outils de gestion de version du marché (CVS, Subversion, Git, etc) ;
- la possibilité de publier des nouvelles, de consulter et contribuer à un wiki, d’éditer des documents, d’attacher des fichiers, de débattre dans des forums de discussions propres au projet ;
- la gestion de "problèmes" de tous types (bugs, demandes, tâches, etc.), que l’on peut ouvrir/commenter/prioriser/assigner/fermer.
- la gestion du temps passé sur chaque problème, la planification des projets (jusqu’au diagramme de Gantt).

Néanmoins, comme tout produit relativement jeune, toutes les fonctionnalités souhaitées ne sont pas encore disponibles. Celles-ci nécessitent effectivement certaines améliorations qui peuvent être apportées par les développeurs de l’IN2P3. Parmi ces améliorations, il y a entre autre :

- L’intégration avec le système de gestion des dépôts de code. Actuellement, il faut créer un nouveau dépôt CVS [3] et un nouveau projet Redmine. Cette procédure pourrait être simplifiée en envisageant par exemple le déclenchement systématique de la création d’un dépôt de code lorsqu’un nouveau projet est crée. Ici, l’obstacle est classique : les deux services ne reposent pas sur les mêmes mécanismes d’authentification.

- La gestion des nouveaux utilisateurs externes à l’Institut. La forge est utilisée pour dialoguer avec les utilisateurs (débats dans les forums, soumission de bugs et de demandes). Aussi, de nombreuses requêtes de création de compte sont-elles attendues. Il faut réussir à faire le tri entre spammeurs et utilisateurs légitimes.

- La classification des projets. La liste des projets s’allongeant, il devient nécessaire de classer ces derniers, par exemple en s’appuyant sur la notion de sous-projets, en créant des projets à la racine pour chaque famille d’outils, en mettant en place un système d’étiquetage, en reprenant les étiquettes retenues par Plume

Les possibilités de perfectionner la forge du Centre de Calcul sont donc nombreuses. Néanmoins, ces améliorations ne pourront s’effectuer sans l’aide et les idées des développeurs de l’IN2P3, qui, en retour, se verront offrir l’opportunité de s’initier à un nouveau langage : Ruby

David Chamont

[1] http://sourceforge.net/ et http://itmanagement.earthweb.com/os...

[2] https://savannah.cern.ch/

[3] https://cvs.in2p3.fr/

n°12
Juillet
2010
Un nouveau routeur au CC-IN2P3

Au delà de sa puissance de calcul, le Centre de Calcul de l’IN2P3 est caractérisé par sa capacité à recevoir, stocker, distribuer et traiter d’énormes quantités de données. Le traitement de masses de données nécessite de pouvoir déplacer celles-ci aussi efficacement que possible entre les unités de stockages et les serveurs de calcul.

L’augmentation considérable des données stockées au CC-IN2P3 en liaison avec la montée en charge des expériences LHC a nécessité de repenser en profondeur l’architecture du réseau local afin de supporter un grand nombre de liens à 10 Gb/s.

Suite à une première série de travaux, représentant près d’1 M€ d’investissement, le réseau du Centre de Calcul se base sur une épine dorsale composé de 3 routeurs reliés entre eux par des liaisons à 4x10 Gb/s et pouvant gérer 100 ports à 10 Gb/s. Malgré cela, la bande passante utilisée entre ces routeurs atteint régulièrement plus de 30 Gb/s, soit plus des ¾ de la capacité disponible.

Afin de repousser ces limites et d’assurer son rôle de Tier-1 pour les expériences LHC, le CC-IN2P3 a investi dans un routeur réseau CISCO NEXUS 7018.

Ce routeur est le premier de cette taille installé sur la région Rhône-Alpes. Il n’en existe qu’une poignée sur toute la France.

Possédant 512 ports à 10Gb/s, il deviendra le routeur central de l’infrastructure réseau du Centre de Calcul de l’IN2P3. Ce type de routeur, pièce maitresse du réseau local, est conçu de manière extrêmement robuste de façon à limiter au maximum les risques de pannes. Ainsi, il possède 4 alimentations électriques distinctes, 2 cartes de supervision et 2 systèmes de ventilation. Son poids avoisine les 200 kg. Il est prêt à supporter les nouvelles interfaces réseau à 40Gb/s ou 100Gb/s.

Livré début juillet au CC-IN2P3 à Villeurbanne, il devrait être opérationnel en Septembre 2010. Le CC-IN2P3 envisage d’investir dans un deuxième routeur de ce type en 2011 pour sa nouvelle salle de calcul.

n°12
Juillet
2010
Inauguration France-Grille

24 Septembre 2010 à Paris

La journée d’inauguration du GIS France Grilles se déroulera le 24 Septembre au siège du CNRS. Elle constitue le lancement officiel de l’Initiative de Grille Nationale Française, partenaire la fédération européenne EGI.

Dates : 24 September 2010 de 09:30 à 18:30.

Lieu : Campus Michel-Ange / 3 rue Michel-Ange, Paris 16ème

Pour plus d’informations : http://www.france-grilles.fr

Journées Astroparticules

7 et 8 octobre à Villeurbanne (69)

Les journées astroparticules se dérouleront à Villeurbanne, à l’Amphithéâtre du Centre de Calcul de l’IN2P3/CNRS, le jeudi 7 et le vendredi 8 octobre 2010.

Pour voir le programme et s’inscrire : http://indico.in2p3.fr/conferenceDisplay.py?confId=3845