imprimer
n°26
Février
2014
IPv6, c’est pour demain !
IPv6, c’est pour demain ! Combien de fois les informaticiens du monde entier (et de l’IN2P3 surtout), ont entendu prononcer cette phrase depuis quinze ans ? Si la nouveauté de l’adressage réseau et des protocoles associés ont attisé la curiosité de nos experts au début, ce gimmick est devenu la plaisanterie des initiés de la dernière décennie.

IPv6 c’est pour demain ! « Oui et moi je partirai en retraite que ça ne sera pas déployé » disait cet ingénieur réseau de l’Institut. 10 ans se sont écoulés, il est parti en retraite et nous utilisons toujours exclusivement IPv4.

Certaines initiatives ont effectivement émergé avec l’objectif de préparer cette transition, comme ce réseau de tests « PHYNET IPv6 » [1] déployé en 2004 au Centre de Calcul et mettant en œuvre une dizaine d’équipements réseau et autant de serveurs. Depuis plus rien.

Mais reprenons l’histoire au début. IPv4 et son plan d’adressage sont définis en 1981 (RFC791) [2] par l’IETF [3]. Cet adressage nécessaire aux communications réseau entre ordinateurs est codé sur 32 bits, proposant un peu plus de 4 milliards d’adresses IP différentes, une adresse étant en général associée à un ordinateur. Même si l’année 1981 voit naître le premier ordinateur personnel ; l’IBM Personal Computer ; les ordinateurs restent peu nombreux et (...)

lire la suite

Développement

L’intégration continue, un retour immédiat sur la qualité des codes

L’intégration continue est un outil de génie logiciel qui permet le suivi continu de la qualité du logiciel. Le cycle d’un développement logiciel peut comprendre des phases de compilation, de packaging, et peut s’accompagner avantageusement de l’exécution de tests, du contrôle de la couverture du code par ces tests, de la vérification et de la mise en forme automatiques du code, par exemple. L’intégration continue vise à automatiser toutes ces tâches, soit périodiquement (nightly builds), soit après chaque modification du code. Un serveur d’intégration continue révèle tout son intérêt pour une équipe de développement importante, le risque que les modifications issues de différents développeurs entrent en conflit étant plus élevé. L’intégration continue, en exécutant l’ensemble de la construction du logiciel, informe immédiatement le développeur de la justesse de ses modifications. S’inspirant d’une initiative similaire d’Inria, le CC-IN2P3 a développé et déployé une plateforme d’intégration continue , en se basant sur le logiciel libre et (...)

lire la suite

International

DIRAC s’installe en Chine

En novembre dernier s’est tenue, dans les locaux de l’Institut de physique de hautes énergies (IHEP) à Pékin, une formation à l’utilisation du logiciel DIRAC. A l’intention des chercheurs et ingénieurs impliqués dans plusieurs expériences de physique de l’institut, cette formation avait pour objet de présenter les possibilités offertes par ce logiciel pour exploiter plus facilement des infrastructures de traitement de données hautement distribuées. L’intergiciel DIRAC permet l’intégration sur une seule infrastructure des ressources de calcul et de stockage distribuées sur plusieurs sites, rendant possible son utilisation d’une façon transparente pour l’utilisateur. Développé par un consortium dont l’IN2P3 joue un rôle moteur et adopté par plusieurs communautés dans divers domaines scientifiques, il est utilisé quotidiennement par des chercheurs dans plusieurs régions du monde. C’est désormais aussi le cas en Chine. L’expérience BES-III auprès de l’accélérateur Beijing Electron Positron Collider (BEPC) de IHEP à Pékin a sélectionné DIRAC pour bâtir son infrastructure distribuée de traitement de ses données. (...)

lire la suite

Recherche

Simulation de systèmes de stockage au CC-IN2P3

Depuis octobre 2008, le Centre de Calcul de l’IN2P3 héberge une équipe de recherche en informatique dirigée par Frédéric Suter. L’un des thèmes étudié est la simulation de systèmes informatiques distribués. Cette étude est financée actuellement par le projet ANR SONGS (Simulation of Next Generation Systems) qui fait partie du programme INFR 2011 (Infrastructures matérielles et logicielles pour la société numérique). A ce titre, l’équipe recherche du CC-IN2P3 dirige le Work Package 1 : [Data]Grid, avec pour objectif, la simulation des campagnes de transfert de données entre le LHC et les espaces de stockage du Centre de Calcul situé à Villeurbanne. Actuellement, les données du LHC sont transférées et accédées au sein du Centre de Calcul (l’un des 11 Tiers 1 à travers le monde) via les services XRootD, iRods et DCache, qui sont interfacés avec le système de stockage hiérarchique HPSS installé au CC-IN2P3. HPSS s’appuie sur une infrastructure de stockage à deux niveaux, un premier niveau reposant sur des disques durs (qui fait office de "cache" de données) et un deuxième niveau (...)

lire la suite

Collaboratif

De RSCS à ZIMBRA…

Avec l’avènement de l’informatique et de l’internet, l’utilisation des outils de communication électronique est devenue omniprésente au fil des années. Que ce soit au travail ou dans sa vie personnelle, la messagerie électronique en particulier, est devenue incontournable. Au delà de la fourniture de calcul, la messagerie électronique est un des premiers services fondateurs que le Centre de Calcul de l’IN2P3 a proposé à sa communauté d’utilisateurs. De RSCS (Remote Spooling Communications Subsystem), sur le « mainframe » IBM ES/9000 en 1986, au serveur IMAP [1] « Netscape Messaging Server » sur un serveur IBM RS/6000 en 1998, de multiples solutions se sont succédées tout au long des 28 années de présence du CC-IN2P3 à Villeurbanne. Destinée principalement aux utilisateurs des moyens de calcul du CC-IN2P3, la messagerie électronique est également proposée aux personnels de l’Institut. Certains laboratoires, à l’instar des services centraux de l’IN2P3, du CPPM ou encore du LSM, font le choix très tôt d’utiliser les moyens que propose le Centre de Calcul. Des 300 comptes en 2005 aux 1500 hébergés aujourd’hui (...)

lire la suite

Equipe

Directeur de la publication  : Alain Fuchs.
Responsables éditoriaux : Giovanni Lamanna et Pierre-Etienne Macchi.
Comité de rédaction : Virginie Dutruel et Gaëlle Shifrin.

Interview

« La journée des expériences, c’est un lieu d’échange avant tout »

#TITRE
David Bouvet, Responsable du groupe Support au Centre de Calcul de l’IN2P3 / CNRS.

lire l'interview

Hommage
Disparition de François Étienne
Au-delà de sa vie de chercheur et d’ingénieur, au-delà de son travail dans les expériences au CERN (...)

en savoir plus

Musée
Recherche de matériel informatique ancien
Le Centre de Calcul de l’IN2P3 recherche du matériel informatique ancien afin d’enrichir son musée (...)

en savoir plus

Agenda
Forum ORAP, le 10 avril 2014
Le 33ème Forum aura lieu le 10 avril 2014 dans l’amphithéâtre du Campus Gérard Mégie du CNRS (...)

en savoir plus

Varenna School on Grid and Cloud Computing - Concepts and Practical Applications - July 25 - 30
Varenna School on Grid and Cloud Computing – Concepts and Practical Applications will be held on (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2014 CCIN2P3
n°26
Février
2014
IPv6, c’est pour demain !

Réseau

IPv6, c’est pour demain ! Combien de fois les informaticiens du monde entier (et de l’IN2P3 surtout), ont entendu prononcer cette phrase depuis quinze ans ? Si la nouveauté de l’adressage réseau et des protocoles associés ont attisé la curiosité de nos experts au début, ce gimmick est devenu la plaisanterie des initiés de la dernière décennie.

IPv6 c’est pour demain ! « Oui et moi je partirai en retraite que ça ne sera pas déployé » disait cet ingénieur réseau de l’Institut. 10 ans se sont écoulés, il est parti en retraite et nous utilisons toujours exclusivement IPv4.

Certaines initiatives ont effectivement émergé avec l’objectif de préparer cette transition, comme ce réseau de tests « PHYNET IPv6 » [1] déployé en 2004 au Centre de Calcul et mettant en œuvre une dizaine d’équipements réseau et autant de serveurs. Depuis plus rien.

Mais reprenons l’histoire au début. IPv4 et son plan d’adressage sont définis en 1981 (RFC791) [2] par l’IETF [3]. Cet adressage nécessaire aux communications réseau entre ordinateurs est codé sur 32 bits, proposant un peu plus de 4 milliards d’adresses IP différentes, une adresse étant en général associée à un ordinateur. Même si l’année 1981 voit naître le premier ordinateur personnel ; l’IBM Personal Computer ; les ordinateurs restent peu nombreux et majoritairement réservés aux professionnels de l’informatique. Le nombre total d’adresses IP ramené à celui des ordinateurs en service et connectés sur le réseau semble donc, à cette époque, réaliste.

Oui mais voilà, avec une population de près de 7 milliards d’individus en 2011 et la généralisation des connexions à l’Internet de nos équipements électroniques, du pèse personne, de nos téléphones aux ordinateurs traditionnels, la pénurie d’adresses IPv4 semble finalement bien s’annoncer. Ni l’utilisation du routage CIDR [4], ni l’introduction de la technique du NAT [5], n’y changeront quelque chose. Au mieux, ces techniques retarderont l’échéance.

IPv6, dont la version finalisée est proposée par l’IETF en 1998, propose une solution à cette pénurie d’adresses IPv4. C’est décidé, l’adresse IPv6 sera quant à elle codée sur 128 bits au lieu des 32 de la v4 et offrira alors 340 milliards de milliard de milliard de milliard (ouf…) de combinaisons. Ceci devrait permettre à chaque représentant du genre humain sur cette belle planète, de connecter pour ses besoins des milliards d’équipements électroniques au réseau pour les siècles à venir, même si la croissance démographie n’infléchit pas.

L’intérêt pour IPv6 était au rendez-vous en octobre 2012 aux journées informatiques qui se tenaient à La Londe les Maures avec deux présentations et des discussions sur l’organisation de cette transition au sein de l’Institut. Le réseau des informaticiens de l’IN2P3 et de l’IRFU l’a bien compris. S’il était urgent d’attendre jusqu’ici, il est désormais temps de monter dans le train IPv6. Certes, la transition sera longue, mais il semble difficile de reporter plus encore ce lent basculement vers IPv6.

Depuis les Journées Informatiques le travail s’est organisé. Le groupe réseau du Centre de Calcul a initié en 2013, le remplacement des routeurs des laboratoires pour un complet support du nouveau protocole réseau. Le remplacement de ces matériels s’échelonnera jusqu’en 2015, de manière à étaler, pour des raisons budgétaires principalement, le renouvellement de cette infrastructure d’interconnexion réseau.

Les préfixes IPv6 ont été demandés pour l’ensemble des laboratoires de l’IN2P3. La plupart ont été fournis par RENATER, les derniers devraient être délivrés dans les semaines à venir.

Un réseau public IPv6 a été routé au Centre de Calcul en octobre 2013, une grande première !

Un état des différentes actions effectuées par le groupe réseau du CC-IN2P3 sur cette année 2013 a été présenté par Jérôme BERNIER lors des Rencontres France-Grilles/LCG-France, en novembre à Villeurbanne.

Le chantier est important et prendra du temps (quelques années ?), pour déployer IPv6 dans les différents sites IN2P3 mais également pour valider l’ensemble des logiciels utilisés dans notre communauté avec ce nouveau protocole.

De manière à avancer tous ensemble la formation d’un groupe de travail a été annoncée au mois de novembre 2013 par mail. Cet article se veut relayer le message d’annonce. Tout informaticien de l’IN2P3 et de l’IRFU est invité à se joindre à ce groupe IPv6. Une liste de diffusion « ipv6-l(at)in2p3.fr » a été créée ainsi qu’un espace projet, pour centraliser la documentation produite et organiser le travail qui nous attend.

Pour des renseignements complémentaires sur les futures actions liées au déploiement d’IPv6 à l’IN2P3, et/ou pour rejoindre le groupe de travail, Jérôme BERNIER ou Laurent CAILLAT-VALLET restent à votre disposition.

Alors, IPv6, c’est pour demain ? Non, IPv6, c’est pour maintenant !

Benoit DELAUNAY

[1] Pour les plus jeunes lecteurs, PHYNET était le réseau privé de l’IN2P3 avant le basculement à RENATER en 1999.

[2] RFC, pour « Requests For Comments »

[3] IETF - Internet Ingineering Task Force www.ietf.org

[4] CIDR - Classless Inter-Domain Routing

[5] NAT – Network Address Translation

n°26
Février
2014
« La journée des expériences, c’est un lieu d’échange avant tout »

David Bouvet, Responsable du groupe Support au Centre de Calcul de l’IN2P3 / CNRS.

La Journée des expériences a eu lieu le 22 janvier au Centre de Calcul de l’IN2P3. David Bouvet, responsable du groupe Support, revient sur cette journée qui a rassemblé près de 70 utilisateurs et informaticiens confondus.

- Pouvez-vous nous rappeler qu’est ce que la Journée des expériences ?

C’est un moment important pour les équipes du Centre de Calcul de l’IN2P3 puisque c’est l’occasion pour elles de rencontrer les représentants des expériences. Cela permet de faire un bilan de l’année écoulée et de présenter les perspectives pour l’année à venir.

Cette journée nous permet de vérifier avec les expériences si ce que nous mettons en place répond à leurs besoins, attentes et usages.

Les représentants des groupes d’utilisateurs peuvent non seulement se présenter et exprimer leurs besoins mais aussi avoir une vue globale des activités du CC-IN2P3, remonter les difficultés rencontrées, discuter avec les experts et rencontrer les autres groupes. C’est un lieu d’échange avant tout.

- Comment s’est passée cette édition 2014 ?

Les échanges ont été riches et variés. Le nombre de participants était plus important que d’habitude et on peut notamment relever la participation de Ursula Bassler, nouvelle DAS Physique des Particules et Computing de l’IN2P3.

Cette année, deux expériences, ILC et LSST, ont eu l’occasion de se présenter. C’est toujours intéressant pour nous de suivre ces présentations et d’avoir des retours. Dans ce cas précis, ils étaient contents du CC-IN2P3, de notre bonne réactivité, notamment LSST pour la mise en place de stockage sur disques et d’une importante base de données.

- Pour cette nouvelle année, avez-vous reçu plus ou moins de demandes de ressources ?

Les demandes sont toujours plus ou moins en progression, en fonction des activités des groupes prévues pour l’année qui suit et / ou de l’arrivée de nouvelles expériences. On note une montée en puissance des groupes d’astroparticules : une vingtaine de groupes au total, avec notamment LSST, Euclid et CTA.

Cette année, pour la première fois, nous avons demandé aux expériences d’anticiper leurs besoins sur les 3 ou 4 années à venir afin d’anticiper les demandes importantes et ainsi de s’organiser au mieux. C’est également un indicateur pour l’IN2P3.

- Est ce que le CC-IN2P3 pourra faire face aux demandes exprimées ?

Le CC-IN2P3 devrait pouvoir faire face en terme de calcul car nous disposons à peu de chose près déjà de la capacité nécessaire. La demande en terme de stockage est plus difficile à pourvoir et est actuellement en cours d’arbitrage.

- Comment s’organisent les arbitrages ?

Cela dépend évidemment des demandes formulées par les expériences mais aussi et surtout du budget du CC-IN2P3. L’arbitrage est basé sur le maintien de nos capacités actuelles, le besoin d’accroissement de nos capacités, suite aux expressions faites par les expériences, et bien entendu, les demandes internes au CC-IN2P3 (infrastructure, bâtiment, informatique). Un juste équilibre doit être trouvé entre ces besoins, si possible avec un dégagement de croissance de nos capacités. Cet exercice est d’autant plus difficile en ces temps de difficultés budgétaires.

PROPOS RECUEILLIS PAR VIRGINIE DUTRUEL

n°26
Février
2014
L’intégration continue, un retour immédiat sur la qualité des codes

L’intégration continue est un outil de génie logiciel qui permet le suivi continu de la qualité du logiciel. Le cycle d’un développement logiciel peut comprendre des phases de compilation, de packaging, et peut s’accompagner avantageusement de l’exécution de tests, du contrôle de la couverture du code par ces tests, de la vérification et de la mise en forme automatiques du code, par exemple.

L’intégration continue vise à automatiser toutes ces tâches, soit périodiquement (nightly builds), soit après chaque modification du code. Un serveur d’intégration continue révèle tout son intérêt pour une équipe de développement importante, le risque que les modifications issues de différents développeurs entrent en conflit étant plus élevé. L’intégration continue, en exécutant l’ensemble de la construction du logiciel, informe immédiatement le développeur de la justesse de ses modifications.

S’inspirant d’une initiative similaire d’Inria, le CC-IN2P3 a développé et déployé une plateforme d’intégration continue , en se basant sur le logiciel libre et reconnu Jenkins (précédemment Hudson), et en contribuant à son plugin JCloud. Avec plus de 800 plugins, Jenkins permet de répondre quasiment à tous les cas d’utilisation. L’objectif était double : répondre aux besoins exprimés par les projets de l’IN2P3, et rendre cette bonne pratique qu’est l’intégration continue facilement accessible.

La plateforme se distingue par trois caractéristiques :

• les instances Jenkins sont hébergées. L’utilisateur reste autonome mais n’a pas à se préoccuper des contraintes d’hébergement.

• les tâches sont exécutées dans le cloud privé de l’IN2P3. Ce qui permet notamment de tester son logiciel dans différents environnements.

• le pilotage d’une instance, y compris les interactions avec le cloud, s’effectue presqu’entièrement par l’interface conviviale de Jenkins.

La plateforme est actuellement déployée dans une version beta, tout-à-fait fonctionnelle. L’ensemble des fonctionnalités attendues sera implémenté en ce début d’année.

Davantage d’informations sur https://ci.in2p3.fr/.

Foudil BRETEL

n°26
Février
2014
DIRAC s’installe en Chine

En novembre dernier s’est tenue, dans les locaux de l’Institut de physique de hautes énergies (IHEP) à Pékin, une formation à l’utilisation du logiciel DIRAC. A l’intention des chercheurs et ingénieurs impliqués dans plusieurs expériences de physique de l’institut, cette formation avait pour objet de présenter les possibilités offertes par ce logiciel pour exploiter plus facilement des infrastructures de traitement de données hautement distribuées.

L’intergiciel DIRAC permet l’intégration sur une seule infrastructure des ressources de calcul et de stockage distribuées sur plusieurs sites, rendant possible son utilisation d’une façon transparente pour l’utilisateur. Développé par un consortium dont l’IN2P3 joue un rôle moteur et adopté par plusieurs communautés dans divers domaines scientifiques, il est utilisé quotidiennement par des chercheurs dans plusieurs régions du monde.

C’est désormais aussi le cas en Chine. L’expérience BES-III auprès de l’accélérateur Beijing Electron Positron Collider (BEPC) de IHEP à Pékin a sélectionné DIRAC pour bâtir son infrastructure distribuée de traitement de ses données. Après plusieurs campagnes de préparation et de validation, le premier lot de 900 millions d’évènements simulés a été produit pendant l’été 2013 sur 7 sites participant à l’expérience, dont 5 sites en Chine, un en Russie et un aux Etats-Unis. Les données ainsi produites sont transférées au centre de calcul de IHEP où leur vérification est effectuée et leur stockage à long terme assuré. Depuis ce premier exercice grandeur réelle, DIRAC est une composante centrale de l’expérience et fait partie intégrante de sa plateforme de traitement de données utilisée quotidiennement.

Plusieurs membres de la collaboration BES-III ainsi que d’autres expériences telles Daya Bay et TREND ont participé à la formation. Animée par Andreï Tsaregorodtsev et Vanessa Hamar, affiliés au CPPM et CCIN2P3 respectivement, cette formation de 3 jours a permis aux participants d’explorer et d’exercer dans des conditions réelles plusieurs des services proposés par DIRAC, tels la gestion de tâches, le stockage et la gestion des données. Les 17 participants ont soumis plus de 8000 tâches qui ont été exécutées sur les centres de calcul de IHEP en Chine, CPPM et CCIN2P3 en France et KEK au Japon, dans le cadre du support que ces sites offrent à l’organisation virtuelle France-Asia.

Inspirés par l’impact de l’infrastructure déployée en France par France-Grilles sur la communauté de recherche, nous explorons actuellement la possibilité d’élargir l’utilisation de DIRAC à d’autres domaines de recherche au delà la physique de hautes énergies, tout d’abord en Chine et à terme dans d’autres pays de la région Asie-Pacifique. Cette initiative s’inscrit dans les actions de coopération du laboratoire Franco-Chinois de physique des particules (FCPPL) que nous tenons particulièrement à remercier.

Fabio HERNANDEZ

n°26
Février
2014
Simulation de systèmes de stockage au CC-IN2P3

Depuis octobre 2008, le Centre de Calcul de l’IN2P3 héberge une équipe de recherche en informatique dirigée par Frédéric Suter. L’un des thèmes étudié est la simulation de systèmes informatiques distribués. Cette étude est financée actuellement par le projet ANR SONGS (Simulation of Next Generation Systems) qui fait partie du programme INFR 2011 (Infrastructures matérielles et logicielles pour la société numérique). A ce titre, l’équipe recherche du CC-IN2P3 dirige le Work Package 1 : [Data]Grid, avec pour objectif, la simulation des campagnes de transfert de données entre le LHC et les espaces de stockage du Centre de Calcul situé à Villeurbanne.

Actuellement, les données du LHC sont transférées et accédées au sein du Centre de Calcul (l’un des 11 Tiers 1 à travers le monde) via les services XRootD, iRods et DCache, qui sont interfacés avec le système de stockage hiérarchique HPSS installé au CC-IN2P3. HPSS s’appuie sur une infrastructure de stockage à deux niveaux, un premier niveau reposant sur des disques durs (qui fait office de "cache" de données) et un deuxième niveau reposant sur des librairies de bandes magnétiques. En plus d’être pérenne, le stockage sur bande est capacitif et peu cher.

L’un des premiers objectifs de ce projet de recherche est de simuler le fonctionnement du composant logiciel qui gère l’ordonnancement des montages des données depuis les bandes magnétiques vers les disques durs et de tester différentes stratégies. L’intérêt de cette simulation est de trouver "in silico" la stratégie optimale en se basant sur des charges de montage tirées de cas réels d’utilisation du système HPSS. Dans un second temps, la simulation complète d’un transfert d’un gros jeu de données entre le LHC et le CC-IN2P3 (LHC staging campaigns) sera réalisée et permettra une aide à la décision pour le dimensionnement et l’organisation des infrastructures et services de stockage.

Ces simulations seront réalisées à l’aide de SimGrid, environnement de simulation d’applications distribuées sur des systèmes distribués hétérogènes. SimGrid propose aux chercheurs en informatique des outils pour la simulation de grands systèmes distribués et/ou parallèles comme les grilles de calcul, les systèmes pair à pair ou le "cloud". L’un des premiers travaux effectué par Pierre Veyre, ingénieur d’étude au CC-IN2P3, a été d’ajouter à SimGrid les abstractions nécessaires à la simulation d’éléments de stockage.

L’environnement offre maintenant aux utilisateurs une API de manipulation de fichiers et de systèmes de stockage qui pourra être utilisée dans d’autres domaines d’application. La seconde étape est de concevoir et de valider différents modèles de stockage rendant compte des caractéristiques actuelles des disques durs et bandes magnétiques du marché.

Une fois ce travail effectué, un simulateur HPSS complet pourra être implémenté. Il sera fondé sur l’infrastructure de stockage actuelle et sur un catalogue réel de plusieurs millions de fichiers. Ainsi, des scénarios de rejeu tirés des journaux d’utilisation de HPSS et des services de stockage utilisés au CC-IN2P3 pourront être reproduis et simulés.

Liens utiles :

- http://simgrid.org

- http://infra-songs.gforge.inria.fr

Pierre VEYRE

n°26
Février
2014
De RSCS à ZIMBRA…

Avec l’avènement de l’informatique et de l’internet, l’utilisation des outils de communication électronique est devenue omniprésente au fil des années. Que ce soit au travail ou dans sa vie personnelle, la messagerie électronique en particulier, est devenue incontournable.

Au delà de la fourniture de calcul, la messagerie électronique est un des premiers services fondateurs que le Centre de Calcul de l’IN2P3 a proposé à sa communauté d’utilisateurs. De RSCS (Remote Spooling Communications Subsystem), sur le « mainframe » IBM ES/9000 en 1986, au serveur IMAP [1] « Netscape Messaging Server » sur un serveur IBM RS/6000 en 1998, de multiples solutions se sont succédées tout au long des 28 années de présence du CC-IN2P3 à Villeurbanne.

Destinée principalement aux utilisateurs des moyens de calcul du CC-IN2P3, la messagerie électronique est également proposée aux personnels de l’Institut. Certains laboratoires, à l’instar des services centraux de l’IN2P3, du CPPM ou encore du LSM, font le choix très tôt d’utiliser les moyens que propose le Centre de Calcul.

Des 300 comptes en 2005 aux 1500 hébergés aujourd’hui sur la plateforme de messagerie, l’offre a su évoluer et séduire en proposant des boites à lettres plus capacitives ; de 10Mo en 1996 à 2Go depuis 2006 ; et une disponibilité accrue.

Après le remplacement du serveur Netscape Messaging Server en 2006 par l’actuel SIMAP/SRELAY et l’hébergement de nouveaux laboratoires, une évolution de la plateforme de messagerie a été initiée en 2012 avec plusieurs objectifs :

-  Il s’agissait de proposer en plus du classique service de messagerie électronique, un éventail de services périphériques jusqu’ici indépendants. Ainsi, la gestion et le partage des carnets d’adresses et des calendriers sont quelques unes des nouvelles fonctionnalités venues étoffer l’offre.

-  Dans un monde ou l‘ultra mobilité devient un mode de vie, il s’agissait également de répondre à la demande d’intégration des services proposés sur la majorité des équipements utilisés par nos collègues (ordinateurs, tablettes ou encore smartphones).

-  Il s’agissait enfin de proposer un mode de gestion évoluée et déléguée aux administrateurs informatiques des différents sites utilisateurs du service de messagerie du CC-IN2P3. Le Centre de Calcul souhaite se positionner comme un fournisseur de services et non comme le gestionnaire.

Pour répondre à ces différents objectifs, le choix s’est porté sur la solution intégrée Zimbra Collaboration Server. A ce jour, 3 laboratoires, le CC-IN2P3, le CCSD et le LMA utilisent pleinement cette nouvelle variation de la plateforme de messagerie électronique. Les « clients historiques » du CC-IN2P3, s’ils sont demandeurs, verront leurs comptes migrés dans le premier semestre de l’année 2014. Comme l’ensemble des services que propose le Centre de Calcul, l’accès à cette plateforme est offerte aux laboratoires de l’Institut, actuels utilisateurs ou non du service de messagerie.

Pour des informations complémentaires sur la plateforme de messagerie et des services associés que propose le Centre de Calcul de l’IN2P3, veuillez consulter le lien http://cc.in2p3.fr/MailServices.

Benoît DELAUNAY

[1] IMAP pour Internet Message Access Protocol est le protocole réseau le plus couramment utilisé de nos jours pour accéder au contenu d’une boite à lettres électronique.

n°26
Février
2014
Forum ORAP, le 10 avril 2014

Le 33ème Forum aura lieu le 10 avril 2014 dans l’amphithéâtre du Campus Gérard Mégie du CNRS à Paris.

Le thème central du forum sera « Big Data et HPC ».

Le programme détaillé, les informations pratiques et le formulaire d’inscription seront accessibles sur le site http://www.irisa.fr/orap

L’inscription, gratuite, est obligatoire pour organiser au mieux cette journée.

Contact : Elisabeth.lebret@inria.fr

Varenna School on Grid and Cloud Computing - Concepts and Practical Applications - July 25 - 30

Varenna School on Grid and Cloud Computing – Concepts and Practical Applications will be held on July 25 - 30 in Varenna, Italy. All the information relative to the school can be found on the School site.

The School will deal with the following topics :

- WLCG Grid past, present and future
- Clouds in the Biosciences
- Scientific clouds
- Global networking
- Grid and Cloud architecture
- Cloud middleware
- Big Data : challenges and perspectives
- Data preser vation
- Grid and Cloud Monitoring

Lecturers and Seminar will be given by major worldwide experts in Grid and Cloud computing :

- A. Barczyk – California Institute of Technology, Pasadena, CA (USA)
- I. Bird – IT Department, CERN, Geneva (Switzerland)
- V. J. Breton – LPC, Campus des Cezeaux, Aubière (France)
- D. Duellmann – IT Department, CERN, Geneva (Switzerland)
- I. LeGrand – PH Department, CERN, Geneva (Switzerland), California Institute of Technology, Pasadena, CA (USA)
- M. Livny – Computer Sciences Department, University of Wisconsin, Madison, WI (USA)
- S. Maffioletti – GC3 : Grid Computing Competence Center, University of Zurich (Switzerland)
- G. Maron – INFN-CNAF, Bologna (Italy)
- H. Newman – California Institute of Technology, Pasadena, CA (USA)
- J. Shiers – IT Department, CERN, Geneva (Switzerland)

All enquiries can be directed to the School secretary :

A. Grigoras
PH Department
CERN
1211 Geneva 23 (Switzerland)
Tel : +41 22 767 1470
Fax : +41 22 766 8377
Email : alina.gabriela.grigoras@cern.ch

n°26
Février
2014
CDD : Informaticien - IRFU/SPhN

Descriptif : Mise en place d’une suite logicielle pour l’interprétation de données de physique nucléaire et des particules.

Laboratoire : IRFU/SPhN

Nom de l’encadrant : Hervé MOUTARDE

Coordonnées : herve.moutarde@cea.fr - 01 69 08 73 88

Descriptif :

Le groupe CLAS du Service de Physique Nucléaire de l’Institut de Recherche sur les lois Fondamentales de l’Univers (CEA/Irfu) propose d’accueillir un informaticien en 2014 pour participer à ses travaux. Il s’agit d’un contrat à durée déterminée de 2 ans (1 an renouvelable une fois) financé par l’Agence Nationale de la Recherche (ANR) dans le cadre de l’appel à projets « Modèles Numériques ».

Le groupe CLAS exerce une activité expérimentale et théorique dans le domaine de la physique hadronique. Cette discipline étudie, entre autres, la structure du proton en termes de ses constituants élémentaires, les quarks et gluons. Des concepts théoriques récents définissent des « Distributions de Partons Généralisées » (GPD). Ces distributions offrent un regard neuf sur le proton, donnant accès pour la première fois à une information en trois dimensions sur sa structure interne. L’Irfu est à la pointe de ces recherches avec des travaux théoriques et expérimentaux menés aussi bien au Jefferson Lab (Etats-Unis) qu’au CERN.

L’objectif de l’ouverture du poste est la mise en place d’une suite logicielle consacrée à l’analyse théorique des données expérimentales associées à ce programme de physique. Les projets expérimentaux nécessitant ces outils sont en cours et vont se poursuivre au moins pendant les 10 prochaines années. Une attention particulière devra donc être accordé à la maintenabilité et la pérennisation du code. Pour ceci, des outils de gestion de versions et de non- régression devront être mis en place. L’ensemble de la suite logicielle sera automatisé en grande partie de manière à simplifier les nombreuses études systématiques requises par les programmes de physique. Un archivage automatique des calculs effectués (résultats, versions des codes et compilateurs, etc.) devra être envisagé dans un souci de contrôle et reproductibilité des résultats publiés. La suite logicielle demandée comprendra les éléments suivants :

Une base de données SQL regroupant l’ensemble des différentes données expérimentales mondiales et des prédictions théoriques.

Une interface de visualisation des contenus de la base de données. Elle doit permettre de comparer de manière systématique données expérimentales et prédictions théoriques. Chaque progrès théorique ou expérimental doit pouvoir être synthétisé au travers de cet outil de visualisation et son impact sur les nombreuses caractéristiques du proton liées aux GPD doit pouvoir être quantifié. Les langages envisagés pour la construction de cette interface sont C++, Qt et VTK. Le candidat peut proposer d’autres solutions, sans toutefois perdre de vue les aspects de pérennité ni de logiciel libre.

Un site web offrant un accès à la base de donnée mentionnée à la communauté internationale et au grand public avec différents niveaux de lecture adaptés au public visé. Une interface de visualisation simplifiée y sera accessible. La base de données et le site web doivent devenir des références pour la communauté internationale des physiciens de la thématique. L’ensemble logiciel créé doit aussi pouvoir être utilisé à des fins d’enseignement ou de communication scientifique afin de maximiser l’impact sociétal du projet.

Cet ensemble d’activités pourra être utilement complété par une évolution des outils d’analyse numérique (ajustement des modèles aux données, etc.) et statistiques (propagation des incertitudes). Les éléments existants ont été développés en C++, en général couplé aux bibliothèques ROOT développées par le CERN. Les développements de calcul scientifique associés au projet devront respecter ce choix d’outils usuels de la communauté de physique nucléaire et des particules.

L’ensemble des tâches à accomplir requiert des compétences étendues mais pas nécessairement très spécialisées. Le poste est ouvert à des profils variés (école d’ingénieur, IUT, thèse de physique avec une composante informatique forte, etc.).

Ce projet ANR est mené en collaboration avec le Centre de Physique Théorique à Polytechnique, le Laboratoire de Physique Théorique et l’Institut de Physique Nucléaire à l’Université Paris-XI. Le candidat sera complètement intégré à une équipe de physiciens à l’Irfu et interagira de manière régulière avec trois membres permanents et deux étudiants. Un intérêt du candidat pour la physique fondamentale et la communication scientifique favorisera les échanges et son insertion au sein du groupe d’accueil. Le candidat s’exprimera en conférence ou donnera des séminaires pour participer au rayonnement international du projet. Des actions de formation aux outils développés seront à envisager et organiser.

CDD : Ingénieur en Informatique Scientifique, Chargé(e) du support aux expériences - CC-IN2P3 / CNRS

Le Centre de Calcul de l’Institut national de physique nucléaire et de physique des particules (CC-IN2P3) est une unité de service et de recherche du CNRS. Classé parmi les grandes infrastructures françaises de recherche, il a pour vocation de fournir des moyens de calcul et de stockage de données aux chercheurs impliqués dans les expériences de physique corpusculaire. Plus de 4000 utilisateurs organisés en plus de 70 collaborations internationales utilisent ses services 24h/24, 7j/7.

Le CC-IN2P3 inclut des infrastructures permettant la gestion et le traitement des données des expériences scientifiques. En constante évolution, la ferme de calcul est composée de plus de 18000 cœurs et la capacité de stockage est de plus de 35 000 téraoctets.

Fonctions

Le CC-IN2P3 recherche un(e) candidat(e) qualifié(e) en informatique scientifique qui participera à toutes les facettes du support aux utilisateurs, principalement auprès des expériences de physique qui utilisent ses moyens de calcul et de stockage. Le/la candidat(e) retenu(e) sera intégré(e) au sein du groupe Support composé de 10 ingénieurs. Il/Elle aura pour mission de :

• Conseiller, orienter et aider les utilisateurs vers des solutions adaptées à leurs besoins de calcul et à leurs besoins de stockage de masse en accord avec les possibilités offertes par le site.

• Traiter les incidents (problèmes, demandes d’aide, demandes d’évolution) soumis par les utilisateurs au jour le jour.

• Installer, maintenir et aider à l’utilisation de tous logiciels scientifiques ou commerciaux nécessaires aux utilisateurs.

• Veiller à la rédaction et à la mise à jour de la documentation à destination des utilisateurs finaux.

• Animer des formations destinées aux utilisateurs du site sur les meilleures pratiques d’utilisation des ressources disponibles.

• Développer et maintenir des outils d’aide aux diagnostics.

Nous recherchons un(e) candidat(e) avec un bon niveau d’informatique et un bon niveau scientifique. Intérêt et aptitude au support des utilisateurs sont essentiels. Une expérience acquise dans la collaboration à des expériences de physique des hautes énergies ainsi que dans l’utilisation du calcul distribué sont des plus.

Qualifications requises

Formation

Bac+5 en informatique ou dans une discipline scientifique connexe à forte composante informatique.

Compétences

Le poste à pourvoir demande des compétences techniques diverses.

Le/La candidat(e) devra maîtriser tout ou partie des compétences dans les domaines listés ci-dessous :

• Bonne pratique de langages de programmation et de script, tels que C++, Shell, Perl ou Python.

• Bonne connaissance du système UNIX, plus particulièrement Linux.

• Bonne connaissance des logiciels et des outils utilisés dans les expériences de physique.

Une connaissance dans les domaines suivants serait un plus :

• Expérience dans l’architecture et les outils utilisés par les grilles de calcul.

• Bonne capacité de développement d’applications basées sur des technologies web.

Outre les compétences techniques, il sera demandé au/à la candidat(e) :

• Une bonne maîtrise du français parlé et écrit.

• Une bonne maîtrise de l’anglais comme langue de travail (échanges, présentations orales et rédaction de documents techniques).

• Une bonne aptitude à communiquer aussi bien à l’oral qu’à l’écrit.

• Un excellent relationnel, le sens de l’organisation et de la rigueur et la faculté de travailler en équipe dans le contexte d’un centre de services.

• Des capacités d’adaptation, de disponibilité et un haut degré d’autonomie.

Des déplacements de courte durée en France et à l’étranger sont possibles.

Conditions contractuelles

Un contrat à durée déterminée d’une durée d’un an, est proposé avec possibilité de renouvellement. Le poste est à pouvoir dans les meilleurs délais. La rémunération est liée aux qualifications et à l’expérience.

Dépôt des candidatures

Les candidat(e)s (jeunes diplômés à fort potentiel acceptés) sont invité(e)s à soumettre leur CV ainsi que les lettres de motivation et de recommandation à job57@cc.in2p3.fr.

Les candidatures seront considérées jusqu’à ce que le poste soit pourvu. Les candidat(e)s retenu(e)s seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3 à Villeurbanne. L’entretien se tiendra en français et en anglais.

CDD : Ingénieur en Informatique Scientifique, Chargé(e) du support pour l’expérience EUCLID - CC-IN2P3 / CNRS

Situé à Lyon Villeurbanne (France), le Centre de Calcul de l’IN2P3/CNRS est un centre national de services informatiques dédié aux besoins de la recherche dans le domaine de la physique corpusculaire (physique nucléaire, physique des particules et physique des astroparticules). Plus de 2500 utilisateurs organisés en plus de soixante-dix collaborations scientifiques internationales utilisent ses services en continu.

Actuellement, le Centre de Calcul est un des composants de premier niveau (TIER-1) qui fournissent les capacités de calcul et de stockage pour les expériences du LHC. Il se prépare à adapter son infrastructure à l’arrivée des futures grosses expériences d’astroparticules.

Fonctions

Dans ce cadre, le CNRS recrute un(e) ingénieur(e) chargé(e) du support à l’expérience EUCLID pour mettre en place l’infrastructure de production au CC-IN2P3 et le suivi des utilisateurs.

Au sein du groupe Support composé de 10 ingénieurs, ses principales missions seront de :

· Participation à l’élaboration du modèle de calcul d’EUCLID.

· Support technique aux activités informatiques de l’expérience EUCLID avec le soutien des experts du CC-IN2P3 : technologies pour le calcul, ressources managers, types de stockage, etc.

· Support pour l’intégration et la validation des codes développés par l’infrastructure de développement dans l’infrastructure de production.

· Support aux utilisateurs, en particulier ceux de l’expérience EUCLID.

· Participation aux tâches reliées au support général des utilisateurs du Centre de Calcul.

Des déplacements de courte durée en France et à l’étranger sont à prévoir.

Qualifications requises

Formation

Grande Ecole d’ingénieur / Thèse de Doctorat en cosmologie ou domaine connexe.

Compétences

Le poste à pourvoir demande des compétences techniques diverses. Les candidats auront des compétences dans un ou plusieurs des domaines listés ci-dessous :

· Pratique de langages de programmation tels que C/C++, Python.

· Bonnes connaissance des systèmes Unix et de leurs shells.

· Connaissance du calcul distribué : systèmes de batch, grille, cloud...

· Connaissance de solutions informatiques mises en œuvre pour une collaboration de recherche.

· Notions d’optimisation d’un code d’analyse de données.

· Capacités d’organisation et de travail en équipe.

· Adaptabilité et sens du service.

· Anglais parlé et écrit.

D’une manière générale, plus que le niveau de connaissance lui-même, c’est la capacité du candidat à acquérir les compétences appropriées qui sera évaluée.

Conditions contractuelles

Un contrat à durée déterminée d’un an est proposé avec possibilité de renouvellement. Le poste est à pourvoir dans les meilleurs délais. La rémunération est liée aux qualifications et à l’expérience.

Dépôt des candidatures

Les candidats sont invités à soumettre leur candidature (CV, lettre de motivation, lettres de recommandation) par courrier électronique à l’adresse job56@cc.in2p3.fr

Les candidatures seront considérées jusqu’à ce que le poste soit pourvu. Les premiers candidats retenus seront convoqués pour un entretien dans les locaux du Centre de Calcul de l’IN2P3 à Villeurbanne dans le mois qui suivra cette publication. L’entretien se tiendra en français et en anglais.

n°26
Février
2014
Disparition de François Étienne

Hommage


Au-delà de sa vie de chercheur et d’ingénieur, au-delà de son travail dans les expériences au CERN et dans les projets internationaux, François a eu à cœur d’animer la communauté des informaticiens de l’IN2P3 et nous lui devons énormément. Il est à l’origine de tout ce qui a structuré notre réseau ; de Lyon à Tunis, en passant par Arles où il accueillit celle du CERN, il a initié les écoles d’informatique de l’IN2P3 et c’est aussi grâce à lui qu’existent maintenant les journées informatiques. Chargé de mission pour l’informatique il a instauré ce parfait équilibre entre l’informatique des laboratoires et le Centre de Calcul.

François a recruté bon nombre d’entre nous et c’est aussi au contact de ce président particulier que beaucoup ont appris la fonction de jury. Son écoute des candidats était particulièrement bienveillante, et même chez les plus timides, avec douceur, il savait détecter les compétences.

C’était un homme absolument infatigable malgré ce handicap qui le rendait encore plus attachant ; c’était un lanceur de projets que rien n’arrêtait, il pouvait traverser la France pour aider un groupe de travail pendant quelques heures ; visionnaire il fut à l’origine de la grille de calcul qui permit à la France de s’impliquer dans le calcul pour les expériences du LHC. Durant toute sa carrière, François a toujours été totalement disponible à chaque heure de chaque jour.

Nous nous souviendrons avec émotion de toi, François, de ta gentillesse, de ta générosité, de cette élégance que tu avais dans tous les sens du terme, du charme de ton sourire, et de cette qualité extraordinaire que tu avais : faire confiance. L’IN2P3 et le CNRS te doivent beaucoup.

Nous pensons à ta famille, François, à ton épouse que nous assurons de toute notre sympathie.

Daniel CHARNAY

Recherche de matériel informatique ancien

Musée

Le Centre de Calcul de l’IN2P3 recherche du matériel informatique ancien afin d’enrichir son musée de l’informatique.

Si vous disposez de matériel, merci d’envoyer un courriel à Fabien Wernli.