imprimer
n°15
Février
2011
CC-IN2P3 : une réunion des expériences en demi-teinte

Le 18 janvier dernier a eu lieu au Centre de Calcul du l’IN2P3, la Journée des Expériences. Cette journée, qui se tient annuellement, réunit l’ensemble des représentants des expériences utilisatrices des ressources du Centre de Calcul. Cette année, l’audience était moins importante que les années précédentes. Petit rappel des faits et quelques pistes pour expliquer cette baisse de fréquentation.

Moment fort de la vie du CC-IN2P3, la Journée des Expériences est l’occasion pour les équipes du Centre de Calcul de rencontrer les représentants des expériences, faire un bilan de l’année écoulée, présenter les nouveautés et identifier les points à améliorer dans l’utilisation des machines. Cette réunion qui laisse une large place aux échanges permet aussi aux représentants des expériences d’évoquer les difficultés rencontrées dans l’année, de poser leurs questions directement aux experts mais aussi d’avoir une vision globale de l’activité du CC-IN2P3 au travers de présentations.

Cette année, les présentations et les discussions ont fait la part belle au nouveau système de batch, GE, qui est actuellement en pré déploiement au CC et qui remplacera BQS d’ici la fin de l’année. Les caractéristiques de ce produit ainsi que le calendrier de déploiement ont été présentés. Du côté expériences, une présentation de Frédérique Chollet (responsable technique (...)

lire la suite

Travail collaboratif

Mise en production d’OBM à l’IPNO

Depuis plusieurs années le besoin d’un outil de gestion d’agendas partagés au sein du laboratoire était exprimé. Des outils d’agendas aux fonctionnalités restreintes étaient déjà utilisés par certains (groupCalendar, Google …). En 2008, un cahier des charges a été établi en essayant de tenir compte des besoins des utilisateurs et de nos contraintes techniques. Nous voulions un produit modulaire nous permettant de conserver notre serveur de mail. En 2009 nous avons donc mis en service une plateforme EGroupware. L’utilisation limitée d’EGroupware depuis les clients de messagerie, nous a poussée à chercher une solution plus complète. Nous avons donc précisé nos critères : contacts et agendas personnels partagés avec une gestion fine des droits gestion de ressources, salles, matériels... synchronisation avec des smartphones récents prise en compte du parc informatique hétérogène : Mac, Windows et linux avec clients de messageries différents tels que Thunderbird et Outlook interface WEB conviviale. Notre choix s’est porté sur OBM, OpenSource, sous licence GPL qui (...)

lire la suite

Colloques

SciencesConf

SciencesConf.org est une plate-forme destinée à fournir l’ensemble des ressources informatiques nécessaires à l’organisation d’une manifestation scientifique (congrès, conférence, workshop, etc.).Elle est entièrement paramétrable par l’utilisateur et utilisable pour des événements récurrents. Développée avec le soutien financier du TGE Adonis, SciencesConf.org est une plate-forme développée par le Centre pour la Communication Scientifique Directe CCSD) destinée à fournir l’ensemble des ressources informatiques nécessaires à l’organisation d’une manifestation de type congrès, conférence, workshop, etc. Disponible exclusivement en ligne, l’application préfigure, comme HAL, MediHAL, ISIDORE, les outils dits "en nuage" (ou cloud computing) et ne nécessite par conséquent aucune infrastructure informatique locale. Configurable et entièrement personnalisable par l’utilisateur sans connaissance informatique particulière, SciencesConf.org fournit les services suivants : Mise à disposition du site de la conférence, phase d’annonce ; Mails génériques associés au nom de la conférence, procédures d’envois automatisées ; Définition du comité (...)

lire la suite

Management

Une nouvelle équipe pour le projet LCG-France

Depuis début décembre, la nouvelle équipe LCG-France est en place ! Rassemblée lors de la dernière réunion des sites LCG-France qui s’est tenue en novembre au Centre de Calcul, l’équipe a été élargie pour s’adjoindre les compétences de Pierre Girard du Centre de Calcul de l’IN2P3/CNRS de Lyon et de Yannick Patois de l’Institut Pluridisciplinaire Hubert Curien de Strasbourg. Fairouz Malek du Laboratoire de Physique subatomique et de Cosmologie de Grenoble, responsable scientifique du projet depuis sa création en 2004 explique : « Pour parler franchement, le départ de Fabio Hernandez, à la fois responsable technique LCG-France et directeur adjoint du CC-IN2P3 a laissé un vide. L’équipe s’est constituée progressivement depuis juillet dernier. Constituer une équipe n’est jamais chose totalement évidente. Dans le cas présent, les rôles de chacun ont été réexaminés de façon à différencier les responsabilités liées au projet de celles relevant du CC-IN2P3 ». Frédérique Chollet du Laboratoire d’Annecy-le-Vieux de Physique des Particules a accepté avec enthousiasme la responsabilité (...)

lire la suite

Centre de données

IAS Data and Operation Center

L’ensemble des activités de services informatiques à vocation scientifique de l’IAS est sous la responsabilité du centre IDOC (IAS Data and Operation Center). Le domaine d’activité d’IDOC recouvre la physique solaire, la physique planétaire et la cosmologie. Les activités informatiques du centre IDOC et de l’IAS en tant que laboratoire sont réunies dans un seul service. En effet, une équipe informatique doit avoir une taille critique minimale pour qu’elle puisse développer des compétences de bon niveau dans l’ensemble des métiers informatiques d’aujourd’hui. Une taille critique Cette taille permet également de sécuriser les compétences et la connaissance de l’infrastructure.Elle autorise également une répartition plus équitable des tâches fastidieuses et des points plus motivants mais surtout de répondre sous une forme matricielle aux sollicitations des projets et activités. Cette organisation permet de mutualiser plus naturellement les moyens matériels et logiciels, de mieux les standardiser et de réduire ainsi les sources possibles d’incidents. Outre le contrôle de quatre (4) expériences spatiales en (...)

lire la suite

Equipe

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Virginie Dutruel, Sébastien Grégoire, Eric Legay et Gaëlle Shifrin

Interview

Dany Vandromme : « Nous avons validé la maturité technique de la transmission à 100 Gbit/s »

#TITRE
Directeur du GIP RENATER, Reseau National de Télécommunications pour la Technologie, l'Enseignement et la Recherche

lire l'interview

A noter
Rapport d’activité du CCRI
Le rapport d’activité du Conseil de Coordination du Réseau des Informaticiens de l’IN2P3 pour la (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2011 CCIN2P3
n°15
Février
2011
CC-IN2P3 : une réunion des expériences en demi-teinte
Les participants à la Journée des Expériences 2011.

Le 18 janvier dernier a eu lieu au Centre de Calcul du l’IN2P3, la Journée des Expériences. Cette journée, qui se tient annuellement, réunit l’ensemble des représentants des expériences utilisatrices des ressources du Centre de Calcul. Cette année, l’audience était moins importante que les années précédentes. Petit rappel des faits et quelques pistes pour expliquer cette baisse de fréquentation.

Moment fort de la vie du CC-IN2P3, la Journée des Expériences est l’occasion pour les équipes du Centre de Calcul de rencontrer les représentants des expériences, faire un bilan de l’année écoulée, présenter les nouveautés et identifier les points à améliorer dans l’utilisation des machines. Cette réunion qui laisse une large place aux échanges permet aussi aux représentants des expériences d’évoquer les difficultés rencontrées dans l’année, de poser leurs questions directement aux experts mais aussi d’avoir une vision globale de l’activité du CC-IN2P3 au travers de présentations.

Cette année, les présentations et les discussions ont fait la part belle au nouveau système de batch, GE, qui est actuellement en pré déploiement au CC et qui remplacera BQS d’ici la fin de l’année. Les caractéristiques de ce produit ainsi que le calendrier de déploiement ont été présentés. Du côté expériences, une présentation de Frédérique Chollet (responsable technique LCG-France) a donné une vue d’ensemble de la structure LCG-France qui coordonne le déploiement et l’utilisation des ressources par les quatre expériences LHC au niveau français. Une autre présentation de Giovanni Lamanna a permis de faire le tour de l’infrastructure qui se met en place pour les expériences d’astroparticules.

La fréquentation ayant été en baisse cette année, le CC-IN2P3 cherche à améliorer le format de cette réunion. Ghita Rahal, responsable du groupe Support aux Utilisateurs au CC-IN2P3, déplore ainsi la désaffection des expériences, en particulier les plus grosses consommatrices : « La Journée des Expériences est l’occasion pour nous de vérifier si les modèles mis en place sont adaptés aux besoins des expériences. De ce point de vue, l’absence de représentants des expériences LHC, par exemple, ne nous a pas permis de le faire. Il est important de comprendre pourquoi moins de personnes se sont déplacées. »

Pour Patrice Lebrun, responsable de la production de l’expérience DZero, « Il y a déjà un problème de vocabulaire, les utilisateurs n’ayant pas les mêmes besoins que les expériences… » Selon lui, cette réunion est l’occasion d’avoir des informations globales sur le CC-IN2P3, mais précise t-il « si j’ai un problème particulier à résoudre, je m’adresse directement aux experts… Mais je suis privilégié puisque basé à l’IPNL, donc tout près du Centre de Calcul. Du coup, je viens à la réunion surtout pour écouter et faire part de quelques problèmes généraux, moins pour exprimer des besoins particuliers. Question de format probablement. »

Lieu d’échanges entre les expériences et les équipes du Centre, oui mais pas seulement. Cette Journée des Expériences permet aussi aux différents groupes d’utilisateurs de confronter leur point de vue. Présent aux manettes du computing DZero depuis plusieurs années, Patrice Lebrun porte un regard critique sur l’évolution des rapports entre les utilisateurs et le CC-IN2P3. «  Le LHC bénéficie d’un important financement donc l’IN2P3 a un droit de regard sur les ressources disponibles. C’est comme si le LHC était en partie propriétaire du CC. Ce n’est pas le cas de DZero, pourtant deuxième consommateur de CPU au Centre. Avant, c’était différent. On pouvait plus faire entendre notre voix. Le CC proposait une infrastructure qu’il jugeait la meilleure et les expériences s’adaptaient ; aujourd’hui, l’infrastructure proposée est conditionnée par les demandes des plus grosses expériences. A charge aux autres de s’adapter… »

Vous avez dit LHC contre le reste du monde ? Sans aller jusque là, Frédérique Chollet, responsable technique LCG-France, estime « qu’il est salutaire de confronter les demandes et les activités des expériences LHC à celles des autres collaborations. A ce titre, la réunion des expériences est utile et instructive. C’est un rendez-vous auquel il convient de répondre présent d’une manière ou d’une autre. Reconnaissons que cette année a été cruciale pour le calcul LHC et que de nombreux échanges entre les expériences et le CC ont eu lieu. Chacun se doute bien que, depuis le redémarrage du LHC, le centre de calcul a été extrêmement sollicité ! »

Pour les nouvelles communautés d’utilisateurs, la Journée des Expériences reste un passage obligé. Giovanni Lamanna, responsable des équipes HESS/CTA et responsable international de l’infrastructure informatique pour le futur Observatoire CTA, estime « fondamental de participer à cette réunion », le projet CTA étant amené à se développer fortement dans les années à venir. «  Les exposés présentant les statistiques et les marges d’utilisation, ainsi que la planification pluriannuelle, m’ont conforté dans l’idée que le projet CTA peut avoir un programme ambitieux grâce au Centre de Calcul. »

Par ailleurs, la communauté d’astrophysique n’étant pas structurée comme celle de la physique des hautes énergies, Giovanni Lamanna vient aussi trouver l’inspiration pour l’organisation de ses propres projets. « Les groupes qui participent à cette réunion viennent avec un savoir-faire, une compétence technique qui vont servir à l’astroparticule. », tout en profitant de l’occasion pour présenter les spécificités de l’astroparticule aux autres collègues physiciens.

Quoi qu’il en soit, ouvert à ces avis, le CC-IN2P3 va tenter de trouver une formule plus adaptée, tout en conservant une large place aux échanges et aux discussions. Jusque là, les personnes contactées pour cette réunion étaient les responsables d’expériences. Mais le Centre de Calcul souhaiterait que cette journée puisse être aussi l’occasion pour les utilisateurs intéressés par le calcul de pouvoir y participer. Les futures Journées ne devraient donc probablement plus seulement destinées aux représentants des expériences mais aux utilisateurs de manière générale, et les plus actifs en particulier.

Egalement dans le cadre de l’amélioration des services, on peut aussi noter que le CC-IN2P3 a récemment réalisé un sondage auprès des utilisateurs sur la qualité du support proposé. Cette initiative devrait permettre au CC-IN2P3 d’offrir un service encore plus adapté à tous ses utilisateurs.

GAËLLE SHIFRIN

n°15
Février
2011
Dany Vandromme : « Nous avons validé la maturité technique de la transmission à 100 Gbit/s »

Directeur du GIP RENATER, Reseau National de Télécommunications pour la Technologie, l’Enseignement et la Recherche

En décembre dernier, des tests de transferts de données à 100 Gbit/s ont été réalisés avec succès sur la fibre CC-IN2P3 – CERN. Dany Vandromme, directeur du Réseau national de télécommunications pour la technologie, l’enseignement et la recherche (RENATER), revient sur le contexte de ces expérimentations.

- Quel était l’objectif des tests réalisés en décembre dernier par RENATER ?

L’objectif de ces tests était de valider la maturité technique de la transmission à 100 Gbit/s et leur caractère non-perturbant pour les canaux WDM 10 Gbits/s qui forment aujourd’hui l’infrastructure de RENATER déjà en place. Grâce à la technologie Wavelength Division Multiplexing, permettant de faire cohabiter plusieurs longueurs d’onde sur une même fibre, nous avons pu tester un canal à 100 Gbit/s par simple ajout d’une longueur d’onde supplémentaire sur nos fibres, et ceci sans modifier l’infrastructure actuelle.

- Pourquoi ces tests ont-ils été réalisés sur cette fibre CC-IN2P3 - CERN ?

Plusieurs raisons expliquent ce choix. Tout d’abord, nous maîtrisons les deux extrémités de cette fibre, avec des deux côtés du matériel Ciena. D’autre part, la fibre Lyon – Genève longue d’environ 220 km est d’une dimension réaliste pour ce genre de tests. Par ailleurs, nous connaissions la capacité du CC-IN2P3 et du CERN à générer du trafic réel correspondant à ces débits sans devoir agréger massivement des petits flux. Lors de ces tests, le trafic de production entre le CC-IN2P3 et le CERN a ainsi été temporairement passé avec succès sur le canal à 100 Gbit/s. Le calcul intensif et la physique des hautes énergies faisant partie des priorités de la politique générale de RENATER, le CC-IN2P3 était donc un bon candidat pour des tests à 100 Gbit/s.

- Quelles perspectives, le succès de ces tests laisse t-il entrevoir ? La construction de liens dédiés pour le transfert massif de données et/ou la création de cœurs de réseaux maillés pour quelques grandes communautés scientifiques comme la physique ou le calcul numérique intensif dans un premier temps, est une perspective prochaine pour RENATER.

Nous envisageons d’équiper les fibres Paris-Lyon-Marseille, qui constituent les segments du réseau les plus utilisés.

- Peut-on envisager une mise en service rapide de réseaux pérennes à ce débit et à grande échelle ?

Oui, mais cela dépendra fortement du contexte financier. RENATER, comme tous les opérateurs de l’État doit faire face à une contraction budgétaire significative, et les équipements 100G doivent encore voir leur coût diminuer pour être avantageux, à comparer à des réseaux en 10x10G.

Pour plus d’informations sur le sujet, voir le communiqué de presse.

PROPOS RECUEILLIS PAR GAËLLE SHIFRIN

n°15
Février
2011
Mise en production d’OBM à l’IPNO

Depuis plusieurs années le besoin d’un outil de gestion d’agendas partagés au sein du laboratoire était exprimé.

Des outils d’agendas aux fonctionnalités restreintes étaient déjà utilisés par certains (groupCalendar, Google …). En 2008, un cahier des charges a été établi en essayant de tenir compte des besoins des utilisateurs et de nos contraintes techniques.

Nous voulions un produit modulaire nous permettant de conserver notre serveur de mail. En 2009 nous avons donc mis en service une plateforme EGroupware. L’utilisation limitée d’EGroupware depuis les clients de messagerie, nous a poussée à chercher une solution plus complète.

Nous avons donc précisé nos critères :
- contacts et agendas personnels partagés avec une gestion fine des droits
- gestion de ressources, salles, matériels...
- synchronisation avec des smartphones récents
- prise en compte du parc informatique hétérogène : Mac, Windows et linux avec clients de messageries différents tels que Thunderbird et Outlook
- interface WEB conviviale.

Notre choix s’est porté sur OBM, OpenSource, sous licence GPL qui repose sur des briques logicielles standards maîtrisées au service informatique de l’IPN (Debian, OpenLdap, Postgres, Perl, Php, Java...).

Il est développé et supporté par la société Linagora dont la réactivité et le dynamisme permettent d’avoir des évolutions régulières. De plus cette solution a été adoptée par de gros clients ce qui permet de garantir une pérennité de la solution dans les années à venir (Gendarmerie nationale, ministères de la défense et des finances, DGA, etc). Des acteurs universitaires l’ont également choisie : INSERM, universités de Toulon-var, de Troyes, de Marne la vallée, Ens-lyon, Ifremer, CNRS-LEGOS, etc. Le produit étant modulaire et ouvert, nous avons mis en exploitation un serveur OBM pour la gestion des contacts et agendas partagés durant le mois d’août 2010, avec démarrage de la production en septembre. Notre plateforme tourne en version 2.3.12. Elle est interfacée avec l’annuaire ldap et le serveur de messagerie de l’IPNO. Nous utilisons les connecteurs OBM pour thunderbird et Outlook qui permettent de retrouver la majorité des fonctionnalités proposées par l’interface WEB. La synchronisation avec les smartphones fonctionne pour une bonne partie des téléphones (Iphone, Androïd ...).

Depuis septembre, le nombre d’utilisateurs quotidiens n’a cessé de croître (150 utilisateurs actuellement) . Le retour de ces utilisateurs est très positif. La gestion des ressources, comme les salles, est très appréciée. L’implantation d’un outil comme OBM, pour être efficace, doit être didactique. Nous avons donc organisé des réunions utilisateurs et publié de la documentation en ligne. Il nous reste à intégrer d’autres modules OBM tel que le webmail (MiniG), la gestion de projets ou la gestion de planning. Nous sommes bien entendu, disposés à aider tout laboratoire souhaitant mettre en œuvre cette solution et à répondre à toute demande d’information complémentaire.

Laure-Amélie COUTURIE (couturie@ipno.in2p3.fr) et Julien LUCAS (lucas@ipno.in2p3.fr)

n°15
Février
2011
SciencesConf

SciencesConf.org est une plate-forme destinée à fournir l’ensemble des ressources informatiques nécessaires à l’organisation d’une manifestation scientifique (congrès, conférence, workshop, etc.).Elle est entièrement paramétrable par l’utilisateur et utilisable pour des événements récurrents.

Développée avec le soutien financier du TGE Adonis, SciencesConf.org est une plate-forme développée par le Centre pour la Communication Scientifique Directe CCSD) destinée à fournir l’ensemble des ressources informatiques nécessaires à l’organisation d’une manifestation de type congrès, conférence, workshop, etc.

Disponible exclusivement en ligne, l’application préfigure, comme HAL, MediHAL, ISIDORE, les outils dits "en nuage" (ou cloud computing) et ne nécessite par conséquent aucune infrastructure informatique locale.

Configurable et entièrement personnalisable par l’utilisateur sans connaissance informatique particulière, SciencesConf.org fournit les services suivants :

- Mise à disposition du site de la conférence, phase d’annonce ;

- Mails génériques associés au nom de la conférence, procédures d’envois automatisées ;

- Définition du comité scientifique, appel à communications, circuit de validation pour l’évaluation scientifique ;

- Dépôt des abstracts et proceedings ;

- Préinscription et inscription (possibilité de lien avec l’application de gestion financière azur-colloques) ;

- Mise en place du programme (sessions, posters, excursions, hébergements, repas, etc.) ;

- Génération du book of abstracts, des actes électroniques ;

- Possibilité d’intégrer les documents dans HAL ;

- Export sous diverses formes et formats (Flux de syndication, Excel, PDF, RDFa, etc.) ;

- Outils de statistiques.

Les sites sont pérennes et pourront être intégrés dans une collection si Sciencesconf.org est utilisé pour des conférences cycliques.

Ce service est ouvert gratuitement aux établissements d’enseignement et de recherche.

Daniel CHARNAY

n°15
Février
2011
Une nouvelle équipe pour le projet LCG-France
De g. à d. : Pierre Girard, Frédérique Chollet et Yannick Patois.

Depuis début décembre, la nouvelle équipe LCG-France est en place ! Rassemblée lors de la dernière réunion des sites LCG-France qui s’est tenue en novembre au Centre de Calcul, l’équipe a été élargie pour s’adjoindre les compétences de Pierre Girard du Centre de Calcul de l’IN2P3/CNRS de Lyon et de Yannick Patois de l’Institut Pluridisciplinaire Hubert Curien de Strasbourg.

Fairouz Malek du Laboratoire de Physique subatomique et de Cosmologie de Grenoble, responsable scientifique du projet depuis sa création en 2004 explique : « Pour parler franchement, le départ de Fabio Hernandez, à la fois responsable technique LCG-France et directeur adjoint du CC-IN2P3 a laissé un vide. L’équipe s’est constituée progressivement depuis juillet dernier. Constituer une équipe n’est jamais chose totalement évidente. Dans le cas présent, les rôles de chacun ont été réexaminés de façon à différencier les responsabilités liées au projet de celles relevant du CC-IN2P3 ».

Frédérique Chollet du Laboratoire d’Annecy-le-Vieux de Physique des Particules a accepté avec enthousiasme la responsabilité technique du projet. « Je ne suis pas une nouvelle venue au sein de LCG-France. Ce projet m’a beaucoup apporté et il me semblait normal de poursuivre dans cette voie, surtout au moment de faire face aux vrais enjeux et aux vraies données. Des ressources ont été déployées, une infrastructure de calcul distribuée est aujourd’hui opérationnelle. Mais il ne faut pas perdre de vue que les administrateurs des sites, les experts calcul des expériences, les équipes du Centre de Calcul ont su travailler ensemble pour prendre en charge l’exploitation et les évolutions. N’étant pas basée à Lyon, j’ai pris l’habitude de collaborer avec le CC-IN2P3 mais il fallait identifier une personne en mesure de s’impliquer au sein de l’équipe LCG-France. »

C’est ainsi que Pierre Girard, fort de ses compétences acquises au sein du projet EGEE et dans le déploiement de l’intergiciel de grille, a rejoint le projet pour assurer la responsabilité du calcul LHC au CC-IN2P3. Compte tenu des objectifs du projet, son rôle est essentiel. En effet, l’infrastructure LCG-France destinée au calcul des expériences LHC est composée d’un centre Tier-1 basé à Lyon offrant des capacités de traitement et de stockage des données importantes associées à une disponibilité et un support en continu. « Pierre Girard connait les forces et les faiblesses de l’intergiciel de la grille, poursuit Frédérique Chollet. Le redémarrage du LHC, les exigences des expériences ne l’effraient pas ! Sa grande qualité ? Il reste serein face aux difficultés ce qui est la meilleure et la seule manière d’en venir à bout. Face à un problème, il est capable de reprendre chaque point de technique, d’impliquer tous les experts concernés jusqu’à comprendre très précisément les dysfonctionnements. Bien évidemment il ne travaille pas seul mais anime un vrai travail d’équipe. »

Mais tout ne se passe pas uniquement au Centre de Calcul à Lyon ! Le calcul LHC s’appuie également sur les ressources et les services proposés par l’Irfu (CEA) et plusieurs laboratoires de l’IN2P3* organisés en sites Tier-2 ou Tier-3 de la grille de calcul LCG (LHC Computing Grid) pour répondre aux besoins de simulation et d’analyse de données. Aujourd’hui la montée de l’utilisation de la grille par les 4 expériences LHC impose, plus que jamais, une étroite coordination entre tous les acteurs du projet. La collaboration entre les sites a toujours existé sur des sujets aussi variés que la sécurité, l’évaluation des nouveaux matériels, les outils de déploiement et d’administration comme quattor. Mais elle a été renforcée en 2006 avec la création d’un groupe technique Tier-2 et Tier-3 animé par un coordinateur technique. Yannick Patois ayant accepté d’assurer cette responsabilité, l’équipe LCG-France est enfin au complet.

* à savoir le Centre de Physique des Particules de Marseille, l’Institut Pluridisciplinaire Hubert Curien, l’Institut de Physique Nucléaire de Lyon, l’Institut de Physique Nucléaire d’Orsay, l’Institut de recherche sur les lois fondamentales de l’Univers du CEA, le Laboratoire de l’Accélérateur Linéaire, le Laboratoire d’Annecy-le-Vieux de Physique des Particules, le Laboratoire Leprince-Ringuet, le Laboratoire de Physique Corpusculaire de Clermont-Ferrand, le Laboratoire de Physique Nucléaire et de hautes énergies, le Laboratoire de Physique Subatomique et de Cosmologie, le Laboratoire de Physique Subatomique et des Technologies Associées.

Frédérique CHOLLET

n°15
Février
2011
IAS Data and Operation Center

L’ensemble des activités de services informatiques à vocation scientifique de l’IAS est sous la responsabilité du centre IDOC (IAS Data and Operation Center). Le domaine d’activité d’IDOC recouvre la physique solaire, la physique planétaire et la cosmologie.

Les activités informatiques du centre IDOC et de l’IAS en tant que laboratoire sont réunies dans un seul service. En effet, une équipe informatique doit avoir une taille critique minimale pour qu’elle puisse développer des compétences de bon niveau dans l’ensemble des métiers informatiques d’aujourd’hui.

Une taille critique

Cette taille permet également de sécuriser les compétences et la connaissance de l’infrastructure.Elle autorise également une répartition plus équitable des tâches fastidieuses et des points plus motivants mais surtout de répondre sous une forme matricielle aux sollicitations des projets et activités.

Cette organisation permet de mutualiser plus naturellement les moyens matériels et logiciels, de mieux les standardiser et de réduire ainsi les sources possibles d’incidents.

Outre le contrôle de quatre (4) expériences spatiales en vol, IDOC met à la disposition des communautés thématiques les données issues de sept (7) pipe-lines de traitement. Au total, des données d’instruments de partenaires étant également disponibles, les jeux de données issus de vingt-trois (23) instruments spatiaux sont accessibles au travers de 5 interfaces principales qui autorisent une sélection ergonomique des informations recherchées.

Afin d’optimiser l’analyse des informations au sein de ces jeux de données, représentant un volume de plus de 500 TB, IDOC développe et met a disposition une palette d’outils d’aide a l’utilisateur.

Support de l’équipe ?

Pour garantir la pérennité des ces données, un ensemble de stratégies a été développé, qui vise à adapter la réponse apportée à la criticité des éléments à préserver.

Un principe de base commun consiste à dupliquer les données en utilisant les deux bâtiments du laboratoire distants d’une centaine de mètres, pour s’affranchir de la problématique d’un incident majeur (incendie, inondation,...).

Outre le lien réseau reliant les deux bâtiments, chacun dispose de son accès réseau indépendant vers le réseau de l’université Paris XI pour emprunter ensuite les liaisons de celle-ci vers RENATER.

L’exemple Planck HFI

L’exigence de réactivité dans le contrôle de l’un des instruments satellitaires (Planck HFI) a adjoint à ce dispositif offrant déjà un premier niveau de redondance, une ligne spécialisée et son backup sur un lien ADSL.

En effet, les opérations de certains des instruments d’observation des missions spatiales doivent être contrôlées par un centre d’opération situé dans le laboratoire concepteur de ces instruments. Les rôles de ces centres d’opérations, sélectionnés par exemple par le CNES, l’ESA ou la NASA, sont de contrôler et d’organiser les activités des instruments spatiaux, tout en assurant leur fonctionnement pérenne et la qualité des données scientifiques produites. Le centre d’opérations est lié contractuellement dans ses activités propres et dans ses relations avec les centres de contrôles satellitaires d’une part et les responsables scientifiques instrumentaux de l’autre. Il respecte les plans qualités associés aux instruments, délivre les produits finis et communique rapports et bilans de ses actes.

Voici ici plus détaillé, le contexte opérationnel de ce projet Planck dont le lancement a eu lieu au printemps 2009 et dont les phases de tests intensifs avaient sollicité de manière très prégnante les ressources du centre de données et d’opérations de l’IAS.

Le projet Planck a été retenu par l’Agence Spatiale Européenne pour effectuer la troisième mission de mesure du rayonnement primaire cosmologique. Ses résultats permettent de dresser une carte de l’Univers à ses débuts, de tester les théories existantes sur sa formation, et d’en déduire son âge.

Pour le contrôle de Planck HFI, évoluant à plus de 1 million de kilomètres de la terre, deux problématiques contraignent fortement le contexte :

D’une part, le satellite n’est "visible" depuis la terre que durant une période d’environ deux heures par jour, en raison de son positionnement et de la forte activité des deux antennes de 30 mètres de diamètre apte à dialoguer avec lui. Ces plages de visibilité omettent sans vergogne de tenir compte de paramètres comme la nuit, les jours fériés ou les vacances.

D’autre part, son fonctionnement technique, qui nécessite de refroidir en permanence à 100 mK et de manière extrêmement stable les détecteurs de l’instrument, est extrêmement sensible. Dit de manière plus triviale, l’un des frigos les plus froids de l’univers (composés de 4 ensembles cryogéniques imbriqués en poupée russe) a un tempérament de diva. Chaque plage de visibilité doit être exploitée pour recueillir les données de la journée écoulée, valider la cohérence technique et scientifique des données produites et en cours de production (décalage alors d’une centaine de secondes entre la production à bord et la lecture des données), et réagir rapidement en cas d’incident.

Par conséquent, toute interruption du "pipe-line" de traitement pourrait se révéler dramatique pour la survie de l’instrument, ce qui explique les précautions prises pour assurer la continuité du réseau.

Chaque bâtiment héberge un ensemble de systèmes permettant de conduire indépendamment les traitements sur l’ensemble des données acquises dont le résultat est ensuite mis à la disposition des chercheurs pour analyse. Un rapport de qualité journalier est soumis à l’Agence Spatiale Européenne.

En conclusion, cette notion de redondance des traitements et des données, valide pour les activités de centre d’opération et de centre de données thématiques, est réalisée par des outils cluster de haute disponibilité, ou par des actions plus simples de synchronisation régulières.

Comme souvent en informatique, l’expérience prouve chaque jour qu’il faut contrôler la complexité de la réponse technique à une problématique pour en contrôler plus aisément le fonctionnement propre. Suivant ce principe, les basculements automatiques d’un système de traitement à un autre en cas de défaillance, ont été limités à des cas extrêmement précis et connus.

Un outil de surveillance et d’information, commun à l’ensemble de l’infrastructure, couvre l’ensemble des points critiques, permet une meilleure réactivité en cas d’incident, et assure la traçabilité des activités du centre.

Le centre prend également en compte les degrés de disponibilité et de sécurisation spécifiques exigées par les jeux de données, met en œuvre le contrôle et en assure la traçabilité.

G. Poulleau Chef de service de l’IAS/INSU/IN2P3

Gilles POULLEAU

n°15
Février
2011
IPHC - ingénieur informaticien expert en calcul scientifique

L’IPHC recrute en CDD d’un an renouvelable une fois un ingénieur informaticien expert en calcul scientifique.

Salaire d’embauche : 2000 euros brut par mois. Poste est à pourvoir au plus tôt.

Plus d’informations disponibles en cliquant ici.

CC-IN2P3 - Ingénieur en Informatique scientifique en charge du support aux expériences LHC et aux utilisateurs

Le Centre de Calcul de l’IN2P3, situé à Villeurbanne, propose un CDD d’ingénieur informaticien chargé du support de l’expérience LHCb. Une description détaillée du poste est disponible ici.

CC-IN2P3 - Administrateur de bases de données

Le Centre de Calcul de l’IN2P3 recrute un(e) ingénieur(e) en informatique pour participer à l’administration de ses serveurs de bases de données relationnelles.

Une description détaillée du poste et les modalités de candidature sont disponibles ici.

CCSD - ingénieur d’étude informaticien en développement d’application

Le CCSD souhaite recruter un ingénieur d’étude informaticien en développement d’application pour participer au développement informatique du logiciel de la plate-forme sciencesconf.org

CCSD - Stage de Développeur applications web et bases de données

Dans le cadre de la gestion de la plateforme scientifique HAL, le CCSD, unité de service du CNRS située à Villeurbanne, souhaite refondre son système de statistiques de consultations WEB dans l’outil PiwiK. Pour ce faire, il propose un stage de Développeur applications web et bases de données d’une durée maximum de 6 mois.

Plus d’informations sur cette offre à cette adresse.

CCSD - Ingénieur d’étude en développement d’applications

Le CCSD, Centre pour la Communication Scientifique Directe, unité de service du CNRS située à Villeurbanne, recrute un ingénieur d’étude en développement d’applications en CDD pour une durée d’un an.

Plus d’informations à cette adresse.

n°15
Février
2011
Rapport d’activité du CCRI

A noter

Le rapport d’activité du Conseil de Coordination du Réseau des Informaticiens de l’IN2P3 pour la période 2008-2010 est maintenant disponible sous sa forme finale à cette adresse .