imprimer
n°7
Juillet
2009
Réunion plénière du réseau des informaticiens de l’IN2P3 et de l’IRFU (RI3)
Le Conseil de Coordination du Réseau des Informaticiens de l’IN2P3 (CCRI) s’est réuni en session plénière lundi 6 juillet, au Centre de Calcul de l’IN2P3/CNRS.

Rappelons que le rôle essentiel du CCRI est d’assurer la circulation de l’information au sein de la communauté des informaticiens de l’IN2P3, en particulier par la définition des moyens nécessaires à l’existence d’un site Web et autres moyens électroniques (listes de courrier, forum, lettre électronique etc.) dédiés à cette fonction ; en assurant une coordination avec les représentants de notre discipline dans les comités informatiques nationaux et internationaux ; en informant la communauté des usagers et expériences de ses actions.

Le CCRI est présidé par le chargé de mission à l’informatique, actuellement Cristinel Diaconu, et se réunit une fois par mois en session privée, et deux fois par an en session ouverte.

Lors de la dernière réunion plénière, Dominique Boutigny, directeur du CC-IN2P3, a présenté la forte croissance des ressources du Centre de Calcul et les problèmes d’infrastructure électriques et climatiques inhérents à cette évolution. D’autre part, plusieurs groupes de travail ont également été présentés, en particulier celui sur le nomadisme, sur la forge in2p3 et sur la sécurité informatique.

Projet lancé par le CCRI avec le (...)

lire la suite

Grille

Rencontres LCG-France 2009 (session de printemps)

LCG-France organise traditionnellement deux rencontres par an au cours desquelles sont discutés l’état d’avancement du projet, l’évolution de l’infrastructure des sites et les activités de calcul des expériences LHC. Les 18 et 19 mai derniers, la session du printemps 2009 s’est tenue au LAPP et a réuni plus de cinquante personnes autour d’un « agenda riche et copieux typiquement haut-savoyard », a estimé Michel Jouvin. Les représentants de la coordination du calcul d’Alice, ATLAS, CMS, et LHCb ainsi que des experts de la Facilité d’Analyse du CERN (CAF) avaient fait le déplacement pour préparer avec les responsables des sites et les experts français, les objectifs de l’exercice STEP09. Il est trop tôt pour évoquer les résultats de l’exercice STEP09 qui s’est déroulé du 1er au 14 juin et dont les résultats seront analysés lors du « Post-Mortem Workshop » les 9 et 10 juillet au CERN. Mais il est certain que les semaines qui ont suivi la réunion ont été très actives pour le computing LHC avec des activités combinées de reprocessing pour le CC-IN2P3, de simulation et (...)

lire la suite

Réseau

La JoSy, "Réunion à distance"

Rappelons que les JoSy sont des "Journées Système" organisées par Resinfo, la fédération des réseaux de métier des administrateurs système et réseaux (ASR) du CNRS. À raison de deux ou trois par an, elles sont destinées à favoriser le partage d’expérience entre les ASRs de l’organisme. La dernière en date, consacrée aux infrastructures permettant la réunion à distance, et en particulier la vidéoconférence, a vu une très large participation de l’IN2P3, aussi bien au niveau de l’organisation que des intervenants. Différents sujets ont abordés dont ’les ingrédients d’une réunion efficace, les spécificités de la réunion à distance’, ’les protocoles mis en jeu’, le logiciel RMS, etc. Le programme détaillé, ainsi que les transparents et les vidéos des présentations, à partir du site de Resinfo. D’autre part, une présentation innovante des transparents est disponible à http://deeptalk.phys.washingt­on.edu/deeptalks/0000003­5/ViewConference.html (on vous demandera d’installer le plug-in Silverlight). Diffusée sur le Web avec la qualité habituelle fournie par Olivier Drevon du service de webcast du CCIN2P3, cette journée a connu (...)

lire la suite

Retour d'expérience

Déploiement de Linux à l’IPN Orsay

Suite à la présentation faite par B. Preciado et Y. Aubert lors des dernières JI, nous leur avons demandé un retour d’expérience sur le déploiement de machines Linux effectué en début 2009. Ce déploiement a porté sur combiens de machines ? Nous avons installé ou réinstallé plus de 150 machines par les outils M23 depuis le début de l’année. Le plus gros œuvre a consisté à migrer toutes nos machines clientes de Fedora6 vers Ubuntu en février. Cette migration a mobilisé une demi-douzaine de personnes du service informatique. En effet, il a fallu vérifier avec chaque utilisateur que le moment n’était pas inopportun pour lancer la migration, et s’assurer que l’installation se passait bien (choisir le bon mode de démarrage (PXE), vérifier l’intégrité des données utilisateurs post installation…). Pour le moment, nous ne supportons que les machines clients, les serveurs Linux ayant des configurations particulières ne sont pas intégrés à M23. Quels sont les problèmes principaux rencontrés au cours de ce déploiement ? Nous avons rencontrés deux types de problèmes : la gestion de (...)

lire la suite

CC-IN2P3

Le CC-IN2P3 passe son grand oral

Unité un peu à part au sein de l’IN2P3, le CC-IN2P3 est néanmoins évalué régulièrement, à l’instar des laboratoires de l’Institut. Le Comité d’Orientation et de Surveillance est un élément clé de cette évaluation. Unité de Service et de Recherche, le CC-IN2P3, tout comme l’ensemble des laboratoires de l’IN2P3 est évalué au moins tous les quatre ans par la section 03 du Comité National (tourniquet) qui regarde principalement le fonctionnement interne du Centre de Calcul. Depuis sa création, le CC-IN2P3 est également évalué annuellement par un Comité d’Orientation et de Surveillance (COS), ce dernier se concentre sur les aspects informatiques du centre de calcul et sur la qualité du service rendu aux expériences. Originellement uniquement constitué de représentants des tutelles et de quelques expériences utilisatrices, le COS du CC-IN2P3 a évolué à partir de 2005 vers un comité international composé d’experts pointus dans le domaine de l’informatique scientifique et a revêtu l’aspect d’un comité de revue. Cette année le COS s’est tenu les 15 et 16 juin. Placé sous la présidence de Cristinel Diaconu, chargé de (...)

lire la suite

Equipe

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Virginie Dutruel, Sébastien Grégoire, Eric Legay et Gaëlle Shifrin

Interview

Richard Mount

« Le cloud, une solution d’avenir »
#TITRE
Responsable de l’informatique scientifique (SLAC)

lire l'interview

A noter
IN2P3 Informatique change !
Vous l’aurez remarqué, la lettre IN2P3 Informatique a été relookée et est maintenant développée sous (...)

en savoir plus

STEP 09 : les grilles battent tous les records
Les préparatifs vont bon train en vue de la remise en service du Grand collisionneur de hadrons (...)

en savoir plus

Le CC-IN2P3 devient membre de la collaboration ALICE
Le "Collaboration Board" de l’expérience ALICE, c’est-à-dire l’organe composé des représentants des (...)

en savoir plus

Agenda
22-23 septembre 2009 - Journées PLUME
PLUME avec le soutien du LAAS, de l’INRA, de la MRCT, de COMPIL et du groupe calcul organise (...)

en savoir plus

12-17 octobre, 2009 - "Architectures, tools and methodologies for developing large scale scientific computing applications"
Le National Institute of Nuclear Physics (INFN) organise une école sur le thème "Architectures, (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2009 CCIN2P3
n°7
Juillet
2009
Réunion plénière du réseau des informaticiens de l’IN2P3 et de l’IRFU (RI3)

Le Conseil de Coordination du Réseau des Informaticiens de l’IN2P3 (CCRI) s’est réuni en session plénière lundi 6 juillet, au Centre de Calcul de l’IN2P3/CNRS.

Rappelons que le rôle essentiel du CCRI est d’assurer la circulation de l’information au sein de la communauté des informaticiens de l’IN2P3, en particulier par la définition des moyens nécessaires à l’existence d’un site Web et autres moyens électroniques (listes de courrier, forum, lettre électronique etc.) dédiés à cette fonction ; en assurant une coordination avec les représentants de notre discipline dans les comités informatiques nationaux et internationaux ; en informant la communauté des usagers et expériences de ses actions.

Le CCRI est présidé par le chargé de mission à l’informatique, actuellement Cristinel Diaconu, et se réunit une fois par mois en session privée, et deux fois par an en session ouverte.

Lors de la dernière réunion plénière, Dominique Boutigny, directeur du CC-IN2P3, a présenté la forte croissance des ressources du Centre de Calcul et les problèmes d’infrastructure électriques et climatiques inhérents à cette évolution. D’autre part, plusieurs groupes de travail ont également été présentés, en particulier celui sur le nomadisme, sur la forge in2p3 et sur la sécurité informatique.

Projet lancé par le CCRI avec le soutien de la direction de l’IN2P3, le nomadisme a été présenté par Serge Borderes (CENBG) qui a notamment rappelé que deux sondages avaient été lancés sur le sujet : l’un à destination des utilisateurs, l’autre des services informatiques. Sondages qui ont reçu un accueil favorable auprès des populations cibles et qui feront l’objet d’un rapport publié à l’automne.

Présenté par Jean-René Rouet (CC-IN2P3), le projet d’une forge IN2P3 a lui été lancé en janvier, et bénéficie d’un écho favorable puisqu’une quarantaine de personnes l’utilise déjà. Le projet est encore en phase de progression.

La sécurité informatique a également été évoquée lors de cette réunion plénière et a notamment fait l’objet, par la voix de Thierry Mouthuy (CPPM), de recommandations sur le cryptage des portables, et d’autres procédures de securité.

Autres sujets abordés : l’active directory, qui connait une excellente popularité dans les laboratoires de l’IN2P3, ou encore les webinars, c’est-à-dire des séminaires disponibles également en visioconférence et qui connaissent un joli succès depuis leur création il y a quelques mois.

Vous pouvez retrouver les slides de cette journée à l’adresse http://indico.in2p3.fr/conferenceDisplay.py?confId=1980 (mot de passe : info).

La prochaine réunion plénière aura lieu en décembre prochain. Pour plus d’informations, consultez le site du RI3.

GAËLLE SHIFRIN

n°7
Juillet
2009

« Le cloud, une solution d’avenir »

Richard Mount

Responsable de l’informatique scientifique (SLAC)

Quel est le rôle du SLAC National Accelerator Laboratory dans la grille de calcul du LHC ?

Depuis deux ans, SLAC est un centre de niveau 2 pour l’expérience ATLAS, c’est-à-dire un centre qui participe à la simulation des données et qui fournit une plate-forme d’analyse de données pour les physiciens. On a la capacité et les ressources pour jouer un rôle plus important mais il nous faut du temps car on ne peut pas prétendre à plus de ressources et donc à plus de budget. Le coût des centres de calcul étant très surveillé par le Congrès américain, on ne peut actuellement pas demander plus de moyens ; il nous faut attendre l’arrivée des données réelles, et ensuite on avisera.

Quelle est la particularité du calcul pour le LHC ?

Les besoins informatiques pour la reconstruction et la simulation de données pour le LHC sont compris. En revanche, les centres de niveau 1 doivent assurer un rôle d’échange de données qui a un caractère un peu chaotique et rend le système fragile.

Pour l’expérience ATLAS, plus de 90% des matériels sont destinés à la reconstruction et à la simulation, et une faible proportion à l’analyse de données mais je pense que cela ne correspond pas à la réalité des besoins. Avec l’expérience Babar, on avait fait une assez bonne estimation des besoins pour la production et la reconstruction des données mais avant l’arrivée des données, nous n’avions aucune idée de ressources réellement nécessaires pour l’analyse. C’est aussi le cas pour le LHC.

D’autre part, pour BaBar, on avait utilisé une sorte de ‘grille pour les pauvres’, c’est-à-dire qu’on avait relié ensemble quelques centres de calcul dans un système lié à la collaboration. Si on fait un parallèle avec la grille WLCG, on peut dire qu’on avait 5 ou 6 centres de calcul de niveau 1 (dont le CC-IN2P3) dont on a utilisé les ressources pour toute la collaboration. Mais à la différence de la grille actuelle, c’était un système plus manuel où tous les membres de BaBar accédaient à ce système via un login.

Avec la grille, en principe, on devrait bientôt pouvoir utiliser les ressources des centres de calcul avec une très grande efficacité et sans trop d’efforts. Mais reste une inconnue : l’analyse chaotique des données. On ne sait pas réellement comment cela va se passer mais on sait qu’il va falloir un très bon accès aux données. C’est pourquoi on utilise des systèmes dédiés aux expériences : il est préférable de gérer les données d’une communauté de physiciens pas trop grande : on évite ainsi de multiplier les problèmes.

Quelles sont les principales difficultés du traitement des données du LHC ?

Les grilles européennes et américaines ont coûté plus qu’elles n’ont encore livré, notamment si on la compare à cette ‘grille de pauvre’ dédiée à BaBar. Et chaque année, elles coûtent un peu plus. Je précise tout de suite que je soutiens les efforts de grille depuis le début mais il faut admettre qu’il y a encore beaucoup de travail à faire avant d’obtenir un système automatisé et demandant moins de ressources humaines.

Autre problème : tandis que les disques sont de plus en plus capacitifs et les données de plus en plus nombreuses, les vitesses d’accès aux données n’évoluent pas de la même manière. Pour résoudre ce problème, on pense maintenant à l’exploitation des SSD (Solid State Device). Or on n’a pas suffisamment d’expérience dans l’utilisation de ce type de matériel. On ne sait pas non plus dans quelle mesure il faudra adapter les logiciels de stockage pour les utiliser. Et c’est un véritable défi.

Comment pensez-vous que les technologies de grille vont évoluer dans l’avenir ?

Le grand changement dans les deux années à venir, c’est l’utilisation systématique et l’intégration de services commerciaux comme Amazon. Le cloud est un système commercial qui offre la possibilité de disposer d’une grande capacité de calcul dans un environnement virtualisé. Dans les grilles actuelles, il faut parvenir à un très grand niveau de contrôle sur les systèmes d’exploitation et les ordinateurs qu’on va utiliser (Scientific Linux et Redhat) : sans cela, on ne pourra pas utiliser les résultats car on n’aura pas la certitude qu’ils soient corrects. En utilisant un environnement virtualisé, on espère réduire la dépendance aux systèmes d’exploitation et aux plateformes matérielles.

D’autre part, si le cloud est une grille avec une technologie plus récente et plus simple, on n’a pas les mêmes possibilités de partager les jobs entre les centres de calcul et de répondre aux besoins de la communauté HEP… mais par contre, on peut devenir riche… D’ailleurs, on peut se demander s’il sera encore nécessaire de construire des centres de calcul, si on peut tout faire sur le cloud…

Enfin, le cloud est une technologie accessible à tout le monde, presque la moitié de la population devrait être capable de l’utiliser. A contrario, je ne pense pas que la grille actuelle sera adaptée au grand public. Actuellement aux Etats-Unis, 5% de l’électricité est consommée chaque année par les centres de calcul. Si ce chiffre augmente encore, on va être confronté à un vrai problème. Le cloud pourrait donc être l’une des solutions d’avenir.

PROPOS RECUEILLIS PAR GAËLLE SHIFRIN

n°7
Juillet
2009

LAPP, 18-19 mai 2009 (Annecy-le-Vieux)

Rencontres LCG-France 2009 (session de printemps)

LCG-France organise traditionnellement deux rencontres par an au cours desquelles sont discutés l’état d’avancement du projet, l’évolution de l’infrastructure des sites et les activités de calcul des expériences LHC.

Les 18 et 19 mai derniers, la session du printemps 2009 s’est tenue au LAPP et a réuni plus de cinquante personnes autour d’un « agenda riche et copieux typiquement haut-savoyard », a estimé Michel Jouvin.

Les représentants de la coordination du calcul d’Alice, ATLAS, CMS, et LHCb ainsi que des experts de la Facilité d’Analyse du CERN (CAF) avaient fait le déplacement pour préparer avec les responsables des sites et les experts français, les objectifs de l’exercice STEP09. Il est trop tôt pour évoquer les résultats de l’exercice STEP09 qui s’est déroulé du 1er au 14 juin et dont les résultats seront analysés lors du « Post-Mortem Workshop » les 9 et 10 juillet au CERN. Mais il est certain que les semaines qui ont suivi la réunion ont été très actives pour le computing LHC avec des activités combinées de reprocessing pour le CC-IN2P3, de simulation et d’analyse pour l’ensemble des Tier-2s. L’activité d’analyse, l’organisation de la transition vers une NGI (National Grid Initiative) dans le cadre du projet EGI (European Grid Initiative) et l’évolution des opérations de la grille vers un modèle décentralisé ont également été au cœur des discussions de la réunion LCG-France.

Les réunions LCG-France sont également l’occasion de réunir tous les acteurs du projet dans l’un des sites LCG-France. Ainsi Yannis Karyotakis a rappelé que « le T2 ATLAS et LHCb du LAPP, connu sous le nom de projet MUST, "Mésocentre de calcul et de stockage" de l’Université de Savoie a permis de mutualiser les moyens de calcul scientifique des laboratoires de recherche et favorisé de nombreuses collaborations à l’échelle locale ». La montée en puissance de l’activité de calcul hors LHC en témoigne et c’est pourquoi une nouvelle salle est prévue à l’horizon 2012 dans un nouveau bâtiment technique de l’Université de Savoie. Mais le LAPP n’est pas le seul dans ce cas. Plusieurs sites LCG-France jouent un rôle moteur au niveau d’une grille de campus ou grille régionale. Cette stratégie prônée par l’Institut des Grilles du CNRS a été discutée avec passion car si elle présente des avantages indéniables (visibilité du projet, collaboration, ouverture à d’autres disciplines, mutualisation de ressources…), la charge en termes de ressources humaines induite par le support d’autres organisations virtuelles ou VOs, la montée en puissance des sites, la maintenance d’infrastructure doit aussi être prise en compte.

De l’avis général, le format de ces journées est adapté, propice aux échanges pour peu que l’on ménage des pauses. La session d’automne se tiendra sans doute au mois de novembre dans l’un ou l’autre des sites LCG-France. Qu’on se le dise !

Pour consulter l’agenda, cliquez ici.

Pour consulter l’album photo, cliquez ici.

Frédérique CHOLLET (LAPP)

n°7
Juillet
2009
La JoSy, "Réunion à distance"

Rappelons que les JoSy sont des "Journées Système" organisées par Resinfo, la fédération des réseaux de métier des administrateurs système et réseaux (ASR) du CNRS. À raison de deux ou trois par an, elles sont destinées à favoriser le partage d’expérience entre les ASRs de l’organisme.

La dernière en date, consacrée aux infrastructures permettant la réunion à distance, et en particulier la vidéoconférence, a vu une très large participation de l’IN2P3, aussi bien au niveau de l’organisation que des intervenants. Différents sujets ont abordés dont ’les ingrédients d’une réunion efficace, les spécificités de la réunion à distance’, ’les protocoles mis en jeu’, le logiciel RMS, etc. Le programme détaillé, ainsi que les transparents et les vidéos des présentations, à partir du site de Resinfo. D’autre part, une présentation innovante des transparents est disponible à http://deeptalk.phys.washington.edu/deeptalks/0000003­5/ViewConference.html (on vous demandera d’installer le plug-in Silverlight).

Diffusée sur le Web avec la qualité habituelle fournie par Olivier Drevon du service de webcast du CCIN2P3, cette journée a connu un grand succès. En particulier, l’interaction avec les participants à distance via le système de chat associé au webcast a été particulièrement importante et intéressante (la transcription est disponible sur le site), et ceci en partie grâce à une participation active tout au long de la journée de Gérard Drevon, particulièrement au fait des technologies évoquées dans cette JoSy (il est chargé rappelons-le de l’opération de notre système de vidéoconférence).

En tant qu’un des organisateurs de cette journée, je tiens à remercier l’institut de monde anglophone, pour avoir mis son "délicieux" amphithéâtre à notre disposition, Olivier Poursac de l’université Paris III pour son aide, l’équipe de support aux conférences du LAL et Olivier Drevon pour toute la logistique, et bien sûr aux orateurs qui ont tous contribué à son succès.

Christian HELFT

n°7
Juillet
2009
Déploiement de Linux à l’IPN Orsay

Suite à la présentation faite par B. Preciado et Y. Aubert lors des dernières JI, nous leur avons demandé un retour d’expérience sur le déploiement de machines Linux effectué en début 2009.

Ce déploiement a porté sur combiens de machines ?

Nous avons installé ou réinstallé plus de 150 machines par les outils M23 depuis le début de l’année. Le plus gros œuvre a consisté à migrer toutes nos machines clientes de Fedora6 vers Ubuntu en février. Cette migration a mobilisé une demi-douzaine de personnes du service informatique. En effet, il a fallu vérifier avec chaque utilisateur que le moment n’était pas inopportun pour lancer la migration, et s’assurer que l’installation se passait bien (choisir le bon mode de démarrage (PXE), vérifier l’intégrité des données utilisateurs post installation…).

Pour le moment, nous ne supportons que les machines clients, les serveurs Linux ayant des configurations particulières ne sont pas intégrés à M23.

Quels sont les problèmes principaux rencontrés au cours de ce déploiement ?

Nous avons rencontrés deux types de problèmes : la gestion de matériels et celui lié à la création de partition raid.

Le premier problème est la conséquence directe d’un parc de machine non homogène. Réussir à avoir un noyau contenant tous les drivers nécessaires n’est pas évident lorsque le parc contient peu de machines identiques. Une des solutions a consisté à ajouter les nouveaux drivers matériels nécessaires.

Le second problème a demandé des solutions plus sioux. Il a fallu que nous modifiions les scripts d’installation de M23 pour insérer des scripts personnels permettant de prendre en compte des configurations raid spécifiques. De cette manière, quelque soit le type de disque utilisé le partitionnement des disques reste commun.

Pour régler ces problèmes, nous nous sommes servis d’un socle commun pour toutes les machines, mais nous avons du définir différents modèles M23 suivant le type de machine (portable, …), la modèle de la machine … Pour associer chaque machine à un modèle d’installation, nous nous sommes servis de l’authentification par adresse MAC lors du téléchargement via PXE.

La création de ces différents modèles d’installation a t-elle été fastidieuse ?

Disons que le temps de prise en main de l’outil M23 en lui-même a été assez long. Maintenant que nous le maîtrisons et que nous lui avons ajouté quelques fonctionnalités, le travail est simplifié.

Techniquement, l’installation est découpée en plusieurs phases M23, et chacune de ces phases sont gérées par des scripts php distincts. Pour nous simplifier la tâche, nous avons modifié certains de ces scripts de manière à ce qu’ils téléchargent et exécutent des scripts bash pour effectuer nos actions spécifiques (par exemple création et partitionnement des systèmes raids).

Est-ce que M23 pourrait-être utilisés partout ?

Pourquoi pas, mais cela demande un certain nombre de compétences. Actuellement, il faut au minimum 2 à 3 administrateurs pour avoir le temps de préparer les infrastructures. Par exemple, il a fallu plus d’un mois homme pour tout préparer à l’IPNO. Si les écueils que nous avons rencontrés sont évités, le déploiement de M23 peut apporter un gain de temps à partir d’une cinquantaine de machines.

Et quels sont ces écueils ?

La gestion du partitionnement à l’installation n’est pas gérée par M23. Le plus simple est de reprendre le principe d’un script appelé par M23. La gestion des groupes de paquets de M23 est assez fastidieux à installer donc nous avons choisi de gérer ce problème via des scripts internes.

Mais l’équipe de développement de M23 est réactive et accessible par mail et depuis la mise en place à l IPNO, le soft a beaucoup évolué (0.6.5 a 0.8.5), il n’est donc pas impossible que certains de nos problèmes aient été résolus.

Reste le problème des évolutions matérielles, un problème délicat à gérer : un noyau stable mais des drivers anciens ou un noyau moins stable et des drivers récents ...

Propos de Y. Aubert recueilli par E. Legay

n°7
Juillet
2009
Le CC-IN2P3 passe son grand oral

Unité un peu à part au sein de l’IN2P3, le CC-IN2P3 est néanmoins évalué régulièrement, à l’instar des laboratoires de l’Institut. Le Comité d’Orientation et de Surveillance est un élément clé de cette évaluation.

Unité de Service et de Recherche, le CC-IN2P3, tout comme l’ensemble des laboratoires de l’IN2P3 est évalué au moins tous les quatre ans par la section 03 du Comité National (tourniquet) qui regarde principalement le fonctionnement interne du Centre de Calcul. Depuis sa création, le CC-IN2P3 est également évalué annuellement par un Comité d’Orientation et de Surveillance (COS), ce dernier se concentre sur les aspects informatiques du centre de calcul et sur la qualité du service rendu aux expériences.

Originellement uniquement constitué de représentants des tutelles et de quelques expériences utilisatrices, le COS du CC-IN2P3 a évolué à partir de 2005 vers un comité international composé d’experts pointus dans le domaine de l’informatique scientifique et a revêtu l’aspect d’un comité de revue.

Cette année le COS s’est tenu les 15 et 16 juin. Placé sous la présidence de Cristinel Diaconu, chargé de mission pour l’informatique à l’IN2P3, il a réuni 24 personnes dont 2 représentants du personnel du CC-IN2P3. Parmi les experts étrangers, on peut citer : Ian Bird (responsable du projet WLCG), Richard Mount (responsable de l’informatique scientifique à SLAC), Manuel Delfino (Directeur de PIC en Espagne), Michael Ernst (Responsable du centre de calcul US-ATLAS à BNL), Mitsuaki Nozaki (Directeur du centre de calcul de KEK), Stephen Wolbers (responsable des systèmes de calcul scientifique à FNAL), Volker Gülzow (Responsable du centre de calcul de DESY)… Cette liste non exhaustive est le reflet du fait que le CC-IN2P3 est devenu un maillon essentiel dans l’organisation du calcul mondial pour la physique corpusculaire.

A l’issue de ces deux jours, Cristinel Diaconu faisait part des premières conclusions du comité et félicitait le Centre de Calcul pour les progrès dans l’installation et la mise à disposition des moyens informatiques à destination des expériences et l’amélioration de la qualité des services pour le calcul LHC. Il soulignait en particulier, l’excellent travail réalisé dans le domaine critique du stockage.

Les recommandations complètes du COS seront disponibles dans les prochaines semaines. Elles orienteront la stratégie du Centre de Calcul pour les années à venir.

DOMINIQUE BOUTIGNY

n°7
Juillet
2009
22-23 septembre 2009 - Journées PLUME

Pourquoi et comment diffuser un développement logiciel de laboratoire ou d’université en libre ?

PLUME avec le soutien du LAAS, de l’INRA, de la MRCT, de COMPIL et du groupe calcul organise deux jours de conférences sur le thème ‘Pourquoi et comment diffuser un développement logiciel de laboratoire ou d’université en libre ?’ destinées aux développeurs des laboratoires de recherche et des universités, au LAAS à Toulouse les 22 septembre (à partir de 13h) et 23 septembre (jusqu’à 13h15) 2009.

Ces journées sont précédées le 22 septembre d’une matinée sur un thème similaire ‘Création et utilisation de logiciels par les PME : protection, contraintes juridiques et valorisation’ mais destinée aux PME de Midi-Pyrénées organisée par CAPTRONIC et MPI, et ouverte aux membres de la communauté PLUME. Le programme n’est pas encore communiqué, ni les modalités d’inscription. Cette page sera mise à jour quand ils le seront.

Pour plus d’informations, cliquez ici.

12-17 octobre, 2009 - "Architectures, tools and methodologies for developing large scale scientific computing applications"

Le National Institute of Nuclear Physics (INFN) organise une école sur le thème "Architectures, tools and methodologies for developing large scale scientific computing applications" du 12 au 17 octobre 2009 à Bertinoro (en Italie).

La date limite d’inscription est fixée au 31 juillet 2009.

Pour plus d’informations, voir le site http://web.infn.it/esc09/index.php.

n°7
Juillet
2009
CDD Ingénieur en informatique scientifique chargé du support dédié aux expériences d’astroparticules

Le CC-IN2P3 recherche un candidat qui participera à la mise en place de l’infrastructure de calcul pour les expériences d’astroparticules ainsi qu’au support général des utilisateurs et des groupes qui utilisent le centre. Le candidat retenu sera intégré au sein d’un groupe Support de 9 ingénieurs. Il aura pour mission de :

- se mettre en contact avec les expériences d’astroparticules pour définir avec eux leur modèle de calcul,

- conseiller, orienter et aider ces utilisateurs à utiliser les solutions les plus adaptées à leurs besoins de calcul et leurs besoins de stockage de masse en accord avec les possibilités offertes par le site,

- mettre en place et implémenter la solution choisie,

- s’assurer au jour le jour du fonctionnement efficace de la réception des données, transferts, production, analyse par la surveillance et par la résolution des problèmes qui peuvent apparaître.

- assurer un support aux autres utilisateurs dans le cadre du support d’ordre général et en collaboration avec les autres membres du groupe,

- participer à la rédaction et à la mise à jour de documentation à destination des utilisateurs finaux,

- animer des formations destinées aux utilisateurs du site sur les meilleures pratiques d’utilisation des ressources disponibles.

Les candidatures d’ingénieurs et universitaires expérimentés ainsi que des jeunes diplômés à fort potentiel sont acceptées. Les candidats sont invités à soumettre leur candidature (CV, lettre de motivation, lettres de recommandation) soit par courrier électronique (format PDF de préférence, MS Word ou texte également acceptés) à l’adresse job28@cc.in2p3.fr.

Les candidatures seront considérées jusqu’à ce que le poste soit pourvu. Les candidats retenus seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3 à Lyon Villeurbanne. L’entretien se tiendra en français.

Plus d’informations sur cette offre en cliquant ici.

CDD Ingénieur informaticien chargé du support aux utilisateurs

Le CC-IN2P3 recherche un candidat qualifié en informatique scientifique qui participera à toutes les facettes du support des utilisateurs et des groupes qui utilisent le centre. Le candidat retenu sera intégré au sein d’un groupe Support de 9 ingénieurs. Il aura pour mission de :

- Acquérir une bonne connaissance de l’infrastructure du centre et des différents services, ainsi que des techniques utilisées dans les grilles de calcul ;

- Conseiller, orienter et aider les utilisateurs vers les solutions les plus adaptées à leurs besoins de calcul et leurs besoins de stockage de masse en accord avec les possibilités offertes par le site ;

- Traiter les incidents (problèmes, demande d’aide, demandes d’évolution) soumis par les utilisateurs au jour le jour ;

- Installer, maintenir et aider à l’utilisation de tous logiciels scientifiques ou commerciaux nécessaires aux utilisateurs ;

- Veiller à la rédaction et à la mise à jour de documentation à destination des utilisateurs finaux ;

- Animer des formations destinées aux utilisateurs du site sur les meilleures pratiques d’utilisation des ressources disponibles.

Les candidatures d’ingénieurs et universitaires expérimentés ainsi que des jeunes diplômés à fort potentiel sont acceptées. Les candidats sont invités à soumettre leur candidature (CV, lettre de motivation, lettres de recommandation) soit par courrier électronique (format PDF de préférence, MS Word ou texte également acceptés) à l’adresse job28@cc.in2p3.fr.

Les candidatures seront considérées jusqu’à ce que le poste soit pourvu. Les candidats retenus seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3 à Lyon Villeurbanne. L’entretien se tiendra en français.

Plus d’informations sur cette offre en cliquant ici.

CDD Ingénieur informaticien - Administrateur Système Grille

Le CC-IN2P3 est l’un des acteurs majeurs du projet européen EGEE (Enabling Grids for E-sciencE). Financé par l’Union Européenne, et comprenant plus de 90 instituts repartis sur plus que 30 pays, ce projet a pour but d’intégrer le travail des projets Grilles de calcul nationaux, régionaux ou thématiques de manière à créer une infrastructure Grid mondiale destinée à la communauté scientifique. [Plus d’information : http://eu-egee.org]

Dans le contexte du projet EGEE, le CC-IN2P3 est responsable de plusieurs activités. Le candidat retenu aura pour mission de :

- Participer à la mise en œuvre d’une infrastructure de calcul et de stockage hautement distribuée basée sur des technologies grille ;

- Participer activement à l’administration système et à la mise en place des nouveaux services basés sur cette infrastructure ;

- Contribuer à la bonne intégration de ces services dans la plate-forme de production du Centre de Calcul ;

- Participer à la réalisation des outils spécifiques pour le suivi de l’exploitation en continu de ces services ;

- Assurer le suivi quotidien du fonctionnement de cette infrastructure, en étroite collaboration avec d’autres instituts impliqués dans le projet ;

- Traiter les incidents survenus localement, en alternance ou en coopération avec les autres membres de l’équipe.

Envoyez votre candidature (CV et lettre de motivation) par courrier électronique (format PDF de préférence, RTF ou Microsoft Word également acceptés) à l’adresse : job27@cc.in2p3.fr.

Plus d’informations sur cette offre en cliquant ici.

Assistant technique dans le domaine des grilles de calcul

Définition synthétique :

Elaboration et mise en œuvre de programmes de recherche.

Activités principales :

- Développer des synergies entre les projets scientifiques français et chinois utilisant les grilles de calcul.
- Mise en œuvre et développement des projets déjà existants : réseau de surveillance de la grippe aviaire : développer un réseau de données épidémiologiques et médicales basée sur la technologie de grille, à destination des chercheurs et pouvant constituer la base d’un système d’alerte pour les autorités sanitaires.

Grille de calcul LCG :

Projet mondial conçu pour répondre aux besoins de traitement des données de collisionneur de particules LHC, qui s’appuie sur un réseau de puissants centres de calcul à travers le monde, dont le CC-IN2P3 à Lyon et le centre de calcul de l’IHEP à Pékin.

- Rôle d’interface entre les centres de calcul français et chinois, et de vérification des moyens déployés en adéquation avec les besoins du projet.

- Identification de nouveaux domaines de coopération basés sur l’utilisation des grilles de calcul, notamment (non exclusivement) dans le domaine biomédical et initialisation de leur mise en œuvre en s’appuyant sur les ressources de centres de calcul français et chinois.

- Accompagnement de l’équipe de l’IHEP dans son rôle de formation et de diffusion de la technologie de grille vers d’autres sites chinois.

- Veille de l’utilisation et des développements de cette technologie en Chine.

Pour lire l’intégralité de l’offre, cliquez ici.

CDD - Poste d’ingénieur informaticien (H/F)

Dans un contexte de forte croissance, d’importante augmentation de la demande et de complexification de services de calcul et de stockage, en particulier ceux déployés pour les besoins des expériences LHC, le CCIN2P3 cherche un ingénieur en développement logiciel pour renforcer son équipe Développements.

Le candidat retenu s’intégrera à l’équipe projet et participera activement au développement et à la validation d’une plate-forme de collecte, d’organisation, d’analyse et de visualisation de l’information obtenue à partir de différentes sources indépendantes et hétérogènes de données.

L’environnement de travail et le projet dans lequel le candidat retenu interviendra est à la pointe de la technique et intellectuellement stimulant.

Formation

Diplôme d’ingénieur ou diplôme universitaire équivalent en informatique ou en une discipline scientifique connexe.

Expérience

Une expérience dans le développement des logiciels avec des interfaces web avancées est fortement appréciée. Néanmoins, les candidatures de jeunes ingénieurs fortement motivés avec des solides compétences dans les outils mentionnés ci-après seront également étudiées.

Compétences

• Bonne connaissance d’un framework de développement d’applications web (ex. : Symfony, Django, Ruby On Rails,…)

• Bonne connaissance des technologies liées au web dynamique (Ajax, JavaScript, DOM, …)

• Connaissance pratique des bases de données relationnelles (Oracle, MySQL ou PostgreSQL)

• Capacités d’analyse des systèmes et de conception de logiciel,

• Avoir un bon relationnel, le sens de l’organisation et savoir travailler en équipe dans le contexte d’un projet de développement logiciel,

• Maîtriser l’anglais comme langue de travail (présentations orales et rédaction de documents techniques),

Ce poste à temps complet est basé sur Lyon (France) mais peut nécessiter des déplacements de courte durée en France et à l’étranger.

Envoyez votre candidature (CV, lettre de motivation et éventuelles lettres de recommandation) de préférence en format PDF (RTF ou Microsoft Word également acceptés) par courriel à job26@cc.in2p3.fr.

Les candidats sélectionnés seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3/CNRS à Lyon (France).

Pour lire l’intégralité de l’offre, cliquez ici.

n°7
Juillet
2009
IN2P3 Informatique change !

A noter

Vous l’aurez remarqué, la lettre IN2P3 Informatique a été relookée et est maintenant développée sous SPIP. Notre objectif : faciliter la mise en page et vous proposer une lettre de meilleure qualité. Notez également que la lettre est maintenant imprimable, soit article par article, soit dans sa totalité.

Le comité de rédaction espère que vous apprécierez ce nouveau format...

STEP 09 : les grilles battent tous les records

Les préparatifs vont bon train en vue de la remise en service du Grand collisionneur de hadrons (LHC), l’accélérateur de particules le plus puissant du monde. La Grille de calcul mondiale pour le LHC (WLCG) est l’un des systèmes les plus indispensables sur lesquels s’appuieront les expériences qui utiliseront cette formidable machine.

Après des mois de préparation et deux semaines de fonctionnement intensif 24 h sur 24, 7 jours sur 7, les expériences LHC ont atteint une nouvelle série d’objectifs visant à prouver qu’elles sont fin prêtes pour le début de la collecte de données, prévu plus tard dans l’année. De nombreux tests ont eu lieu ces dernières années sur le traitement des données à grande échelle, mais cette démonstration a pour la première fois pris en compte tous les éléments clés - de la collecte des données jusqu’à leur analyse, en passant par leur transfert.

Des records ont été atteints à de nombreux niveaux : débit de collecte de données, vitesse d’importation et d’exportation des données entre les différents centres, ainsi qu’un très grand nombre d’opérations d’analyse, de simulation et de retraitement (l’expérience ATLAS ayant à elle seule réalisé près d’un million d’analyses avec une capacité de trafic de 6 Go/s, soit l’équivalent d’un DVD rempli de données chaque seconde, et ce, sur de longues périodes). Ces résultats tombent à point nommé car ils coïncident avec la conversion des grilles en infrastructures en ligne durables, ce qui est fondamental pour les projets d’une durée de vie telle que celle du LHC.

Les différents sites français ont bien sûr participé à ces tests qui ont permis de confirmer la solidité et la robustesse de la grille lorsque le LHC fonctionnera en mode maximal.

Rappelons que la France participe à tous les niveaux de la grille du LHC : au premier niveau, via le CC-IN2P3, qui reçoit les données du détecteur en provenance du CERN, les traite en local, produit des données réduites et assure un échange de ces données avec les centres de niveau 2 (le LAPP, l’IPHC, SUBATECH, le LPC Clermont et le groupement GRIF, incluant le LAL, le LLR, le LPNHE, l’IPNO et le CEA/IRFU), et de niveau 3 (CPPM, LPSC Grenoble, IPNL). Ces centres de niveau 2 et 3 produisent eux des données simulées, assurent l’analyse de l’utilisateur final et renvoient les données produites vers le centre de niveau 1 pour un stockage pérenne.

En France, comme ailleurs, ces tests ont été effectués pour les données des quatre expériences du LHC (ATLAS, CMS, ALICE, LHCb), de manière plus ou moins intensive selon le cas. Ils ont donc permis d’identifier les axes encore à améliorer mais ont surtout confirmé la fiabilité des sites français et étrangers de la grille de calcul du LHC. Un résultat tout à fait encourageant pour la suite du projet.

Lire l’intégralité du communiqué (publié par le CERN le 01/07/09).

Le CC-IN2P3 devient membre de la collaboration ALICE

Le "Collaboration Board" de l’expérience ALICE, c’est-à-dire l’organe composé des représentants des unités de la collaboration, a approuvé à l’unanimité la candidature du Centre de Calcul de l’IN2P3/CNRS pour devenir membre à part entière de cette collaboration.

Jusqu’à présent, le CC-IN2P3 avait un statut de fournisseur de ressources mais pas de collaborateur. Ce changement de statut est donc une reconnaissance du travail réalisé par le CC-IN2P3 et devrait permettre de renforcer son rôle à la frontière entre le calcul et la physique.