imprimer
n°22
Octobre
2012
Bilan de huit années aux commandes du CC-IN2P3
A l’aube d’une nouvelle vie comme contact informatique de l’expérience LSST sous le soleil californien, et juste avant de confier les rênes du CC-IN2P3 à Pierre-Etienne Macchi, Dominique Boutigny revient sur ses huit années aux commandes du Centre de Calcul.

Il y a pratiquement huit ans, Michel Spiro et François Le Diberder m’ont fait confiance en me confiant la direction du CC-IN2P3. Outre le fait de continuer à fournir les moyens informatiques nécessaires à la mise en œuvre de la politique scientifique de l’IN2P3, la seule mission précise qui m’était confiée était de faire en sorte que le Centre de Calcul devienne un Tier-1 pour le projet W-LCG à hauteur d’environ 10% des ressources internationales nécessaires. Le projet était bien sûr passionnant et les moyens financiers et humains ont été durant plusieurs années à la hauteur de cette ambition.

Le projet LCG est maintenant en régime de croisière au CC-IN2P3 ainsi que dans les Tiers-2 – Tiers-3 français. L’une des clés du succès a certainement été l’excellente collaboration qui s’est établie et qui a perduré entre le CC-IN2P3 et le projet LCG-France. L’autre élément important a été la mise en place d’une démarche qualité au CC-IN2P3 qui a abouti à une rationalisation des procédures. Ce point a été fondamental quand nous avons dû faire face à un afflux de matériel et à (...)

lire la suite


Le CC-IN2P3 construit sa passerelle vers les nuages

Sujet à la mode de ces dernières années, le cloud computing fait son entrée au CC-IN2P3 et s’apprête à offrir une nouvelle expérience à ses utilisateurs, offrant des ressources en meilleure adéquation avec leurs besoins, plus rapidement et avec un contrôle utilisateur encore jamais atteint.

lire la suite


Les arrêts de production au CC-IN2P3 : une mécanique bien rôdée

Quatre fois par an, le CC-IN2P3 effectue des opérations de maintenance et de mise à jour de ses services. Ces interventions, qui sortent du cadre de celles réalisées par les agents du Centre au quotidien, nécessitent rigueur, coordination et investissement. Plongée dans cette machinerie bien rôdée que sont les arrêts de production du CC-IN2P3.

lire la suite


Le LAL s’équipe d’un mur d’image

En 2009-2010, le Laboratoire de Recherche en Informatique (LRI) a mis en place une salle « mur d’image » consistant en 32 écrans (4x8) gérés par plusieurs ordinateurs et un système de caméras permettant la capture de mouvements d’une personne instrumentée de diverses manières (gants, casquette, etc…).

lire la suite


Le CC-IN2P3 inaugure son Musée de l’informatique

L’idée est née il y a quatre ans lors de la première édition du Festival Particule.com. Certains ingénieurs du CC-IN2P3, avec à leur tête Fabien Wernli, avaient envie de présenter d’anciens matériels informatiques aux collégiens et lycéens, de leur montrer l’évolution de l’informatique, quitte à passer pour de vrais ringards en parlant de minitels et de cartes perforées à ces accros aux iPhone et autres tablettes intelligentes.

lire la suite

Equipe

Responsables éditoriaux : Dominique Boutigny et Cristinel Diaconu
Comité de rédaction : Virginie Dutruel, Eric Legay, et Gaëlle Shifrin

Agenda
Du 22 au 25 oct. - 8èmes Journées Informatique de l’IN2P3 et de l’IRFU
Le réseau des Informaticiens IN2P3 et de l’IRFU organise le mois prochain des Journées (...)

en savoir plus

19-21 nov. 6e workshop sur la préservation de données
Le 6e workshop sur la préservation de données dans la physique des hautes énergies aura lieu au (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2012 CCIN2P3
n°22
Octobre
2012
Bilan de huit années aux commandes du CC-IN2P3

A l’aube d’une nouvelle vie comme contact informatique de l’expérience LSST sous le soleil californien, et juste avant de confier les rênes du CC-IN2P3 à Pierre-Etienne Macchi, Dominique Boutigny revient sur ses huit années aux commandes du Centre de Calcul.

Il y a pratiquement huit ans, Michel Spiro et François Le Diberder m’ont fait confiance en me confiant la direction du CC-IN2P3. Outre le fait de continuer à fournir les moyens informatiques nécessaires à la mise en œuvre de la politique scientifique de l’IN2P3, la seule mission précise qui m’était confiée était de faire en sorte que le Centre de Calcul devienne un Tier-1 pour le projet W-LCG à hauteur d’environ 10% des ressources internationales nécessaires. Le projet était bien sûr passionnant et les moyens financiers et humains ont été durant plusieurs années à la hauteur de cette ambition.

Le projet LCG est maintenant en régime de croisière au CC-IN2P3 ainsi que dans les Tiers-2 – Tiers-3 français. L’une des clés du succès a certainement été l’excellente collaboration qui s’est établie et qui a perduré entre le CC-IN2P3 et le projet LCG-France. L’autre élément important a été la mise en place d’une démarche qualité au CC-IN2P3 qui a abouti à une rationalisation des procédures. Ce point a été fondamental quand nous avons dû faire face à un afflux de matériel et à une montée en charge des différents services sans précédent. Clairement, le défi du LHC nous a fait franchir une étape, le CC-IN2P3 d’aujourd’hui n’est plus celui de 2005 et nous sommes armés pour faire face à l’arrivée de nouveaux projets de très grande ampleur.

Jusqu’en 2011, nous avons dû gérer une infrastructure atteignant ses limites. Nous avons fonctionné plusieurs années en inventant sans cesse de nouvelles astuces pour maintenir les équipements en fonctionnement à la limite de la disjonction. Heureusement, le Contrat de Projet État-Région nous a permis de financer la construction de la nouvelle salle informatique. L’énorme travail de définition des besoins a certainement été la clé du succès et le budget fut parfaitement respecté. La nouvelle salle est à la pointe de la technologie et offre un atout décisif à l’IN2P3 pour prendre des responsabilités majeures dans le calcul des futures expériences. Je pense notamment aux « upgrades » du LHC et aux grandes expériences d’astroparticule, telles que LSST, EUCLID, CTA, ...

La complexité du calcul dans les expériences est arrivée à son paroxysme avec le LHC, cela a mis en avant deux points importants : le premier est qu’il est maintenant indispensable de recruter des personnes travaillant à la frontière entre la physique et l’informatique et chargées de créer des liens étroits entre les deux mondes. Avec François Le Diberder, nous avons parié sur de jeunes postdocs physicien(ne)s basés au CC et répartissant leur temps entre la recherche dans une expérience et le support informatique. Le modèle serait certainement à affiner, en particulier au niveau de la gestion du temps, mais ces jeunes physicien(ne)s ont eu un impact majeur sur la qualité du service fourni aux expériences. Les finances ne permettent plus de poursuivre cette idée des postdocs au CC-IN2P3, je le regrette mais j’espère qu’un coin a été enfoncé et que l’idée de renforcer les liens entre la physique et l’informatique poursuivra son chemin. Le deuxième point concerne la définition même du rôle de l’informatique dans les expériences ; la complexification du calcul rend certes nécessaire la mise en œuvre de procédures qualité, et des engagements sur le niveau de service rendu (Service Level Agreement), mais le CC-IN2P3 ne doit pas pour autant se cantonner au seul rôle de centre de services. Il est indispensable que nous soyons associés aux expériences en tant que collaborateurs à part entière et ceci dès le début des phases de conception des modèles de calcul. Bien entendu, cette implication dans les expériences nécessite de pouvoir dégager du temps sur les tâches de service, ceci passe par un allègement des procédures techniques, ainsi que par une politique RH adaptée.

La mise en œuvre du calcul pour le LHC est indissociable de la Grille qui a, au travers des projets européens successifs Datagrid, EGEE et EGI, a fourni les intergiciels, les services, les procédures et toute la structure opérationnelle nécessaire. Tout n’a pas été parfait et bien des ambitions en termes de fonctionnalités ont dues être revues à la baisse, mais le succès des analyses du LHC, concrétisées par la découverte d’un Higgs a démontré de manière éclatante la justesse des choix et l’utilité des efforts humains et financiers. Ce qui me frappe le plus dans cette aventure de la Grille, c’est certainement la communauté extrêmement compétente et soudée qui s’est créée en France. Il n’y a qu’à regarder le contenu des échanges sur les listes de diffusion où la participation aux divers colloques organisés par LCG ou par France-Grilles, pour s’en rendre compte.

On constate actuellement que les infrastructures de calcul scientifiques intègrent de plus en plus de services virtualisés et tendent vers un modèle de cloud. Le CERN par exemple, va placer l’essentiel de ses ressources informatiques dans le cloud d’ici à la fin 2013. Ce changement est profond, puisqu’une partie des tâches qui relevaient de l’administration système va basculer sous la responsabilité des utilisateurs qui pourront déployer des infrastructures sur mesure. A nous de prendre ce virage, de repenser le travail des administrateurs système en leur dégageant du temps pour qu’ils se recentrent vers des activités à hautes valeurs ajoutées et de faire en sorte que les structures opérationnelles de la grille qui ont fait leurs preuves, évoluent pour intégrer les clouds.

J’ai toujours été convaincu de la nécessité de construire des passerelles entre les structures de production telles que le CC-IN2P3 et le monde de la recherche en informatique. Le recrutement d’un chercheur en informatique au CC-IN2P3 a été fait dans cette optique et permet un rapprochement effectif entre le Centre de Calcul et d’excellentes équipes de recherche en informatique notamment au Laboratoire de l’Informatique du Parallélisme (LIP). L’ANR SONGS (Simulation Of Next Generation Systems) qui vise à développer des outils de simulation d’architectures informatiques, est un exemple typique de sujet de recherche informatique qui bénéficie de l’apport des experts issus du monde de la production et qui permettra certainement de dimensionner et d’optimiser les infrastructures de demain. De même, l’introduction du parallélisme dans les algorithmes de traitement de données des expériences de physique corpusculaire, étape inévitable si l’on veut tirer parti des architectures à très grand nombre de cœurs, va nécessiter une étroite collaboration avec les chercheurs en informatique.

Quand je regarde l’évolution du budget du CC-IN2P3 et celle des ressources humaines, je constate que malheureusement les effets de la crise économique sont bel et bien présents. En 2012, pour la première fois de son histoire, le CC-IN2P3 n’a connu aucune croissance, les budgets ont tout juste couvert le renouvellement du matériel sorti de maintenance. Il ne faut pas se faire d’illusion, cette situation va perdurer et il faut que le CC-IN2P3 trouve d’autres sources de financement. Dans cette optique, nous avons poursuivi une politique de communication afin de faire connaitre le Centre de Calcul qui était trop souvent perçu comme une tour d’ivoire au sein de l’IN2P3, et de développement de partenariats vers d’autres disciplines et vers le monde industriel. Le pari est risqué car dans cette ouverture, il faut absolument être capable de préserver notre cœur de métier sans « perdre notre âme ».

Comme toute structure scientifique, le CC-IN2P3 a une mission de diffusion de la connaissance, notamment vers les plus jeunes, afin de faire connaître nos métiers et surtout de faire progresser l’intelligence de la démarche scientifique. Il peut être tentant de mettre ses actions entre parenthèses en période de restrictions budgétaires, je suis convaincu qu’au contraire, il faut développer sans relâche cet aspect éducatif, c’est essentiel pour la société.

Le 1er janvier, j’aurai passé le relai à Pierre-Étienne Macchi, je lui souhaite bonne chance et bon courage car la tâche est ardue, mais je sais que le CC sera entre de bonnes mains. En ce qui me concerne, je vais repasser de l’autre côté de la barrière et rejoindre les utilisateurs du CC-IN2P3. J’aurai ainsi profité de cette opportunité passionnante qu’offre le CNRS de diriger un labo pendant quelques années pour retourner finalement au cœur de la recherche. Au-delà de toutes les avancées technologiques dans lesquels le CC-IN2P3 a été acteur et dont j’ai tenté d’être le facilitateur, je retiendrai surtout une incroyable aventure humaine qui m’aura fait avancer sur un plan qui dépasse largement le domaine professionnel.

DOMINIQUE BOUTIGNY

n°22
Octobre
2012

Coordinateur technique adjoint de France Grilles

Gilles Mathieu : « La mise en place de l’instance nationale de DIRAC va permettre une meilleure administration du service »
© CC-IN2P3

Les Journées scientifiques mésocentres et France Grilles ont eu lieu du 1er au 3 octobre. A cette occasion, un prix a été décerné par le Comité scientifique* pour le poster ‘Instance nationale et multi-communautés de DIRAC pour France Grilles’. Gilles Mathieu, qui a coordonné la mise en place de cette instance, revient sur ce prix.

- Pouvez-vous nous rappeler ce qu’on appelle DIRAC ?

DIRAC, pour Distributed Infrastructure with Remote Agent Control, est un outil de soumission de calcul sur la grille principalement développé par l’IN2P3 en particulier par Andrei Tsaregorodtsev au CPPM, en collaboration avec le CERN. Le prix du meilleur poster** des Journées scientifiques mésocentres et France Grilles récompense la promotion de cet outil mais aussi la mise en place d’une instance nationale du service en production pour plusieurs communautés scientifiques.

- Quel est le but de cette instance ?

Cette instance nationale est gérée comme un service de l’infrastructure de grille nationale France Grilles. Elle répond à plusieurs objectifs : tout d’abord, mutualiser les efforts et les ressources fournis par plusieurs communautés utilisant chacune une instance séparée de DIRAC ; Optimiser les performances et l’utilisation des ressources DIRAC via l’utilisation d’une instance centrale largement utilisée ; Construire et développer une communauté d’experts DIRAC ; Faire bénéficier la communauté des développeurs du logiciel de retours d’expériences ; Permettre aux petites communautés n’ayant pas forcément les moyens humains et matériels pour mettre en œuvre cet outil de bénéficier d’une instance de production ; Enfin, faciliter l’accès à la grille aux nouvelles communautés et coordonner le support et la formation autour de DIRAC.

- En quoi l’administration du service DIRAC est-elle originale ?

L’outil est déployé au CC-IN2P3, mais les experts de l’administration et du support du service DIRAC sont eux localisés dans plusieurs laboratoires : au CC-IN2P3, mais aussi au CPPM, au LUPM, à Creatis et à l’Université de Bordeaux (Mésocentre Aquitain). Le support du service fonctionne, par exemple, sous forme d’astreinte entre ces différents sites.

- Concrètement, quel intérêt y voyez-vous ?

La mutualisation de l’administration de DIRAC entre différents laboratoires permet de répartir la charge de travail sur plusieurs sites, pour au final obtenir un meilleur résultat. Chacun y trouve donc son compte. La méthode utilisée est très prometteuse. Il est d’ailleurs envisagé de réutiliser cette même mécanique pour d’autres services que France Grilles serait amené à déployer pour ses utilisateurs, tels que iRODS par exemple.

* Le Comité scientifique était composé de Paul BOURGINE (Ecole Polytechnique), Michel DAYDE (Université de Toulouse), Alain FRANC (INRA), Laurent GYDE (Renater), Eric LANCON (CEA/IRFU), Jean-Francois MANGIN (CEA/DSV), Stéphane MAZEVET (Observatoire de Paris-Meudon), Thierry PRIOL (INRIA), Jean-Pierre VILOTTE (Institut de Physique du Globe de Paris) et Guy WORMSER (CNRS-IN2P3).

** Ont collaboré au poster : Luisa Arrabito, David Bouvet, Sorina Camarasu-Pop, Yonny Cardenas, Nicolas Clémentin, Helene Cordier, Sophie Gallina, Jacques Garnier, Pierre Gay, Tristan Glatard, Vanessa Hamar, Claudia Lavalley, Gilles Mathieu, Matvey Sapunov, Rafael Ferreira da Silva, Andrei Tsaregorodtsev.

PROPOS RECUEILLIS PAR G.S.

n°22
Octobre
2012
Le CC-IN2P3 construit sa passerelle vers les nuages

Sujet à la mode de ces dernières années, le cloud computing fait son entrée au CC-IN2P3 et s’apprête à offrir une nouvelle expérience à ses utilisateurs, offrant des ressources en meilleure adéquation avec leurs besoins, plus rapidement et avec un contrôle utilisateur encore jamais atteint.

Dans la limite de quotas fixés sur le nombre de systèmes, la quantité de RAM ou encore la bande passante réseau, l’utilisateur peut provisionner lui-même les instances de son choix, personnaliser cette base à volonté en installant les logiciels dont il a besoin et définir les caractéristiques physiques de ses machines. Il peut ensuite faire évoluer la taille de son infrastructure en fonction de la charge appliquée : l’augmenter lors des pics d’activité ou la réduire lorsque les ressources ne sont pas utilisées. La plateforme offre des interfaces standards comme EC2, NovaAPI ou OCCI qui permettent d’exécuter les tâches de gestion de manière entièrement automatisée.

Vers le provisionnement d’infrastructure virtualisée et unifiée

Pour le CC-IN2P3 aussi, c’est l’heure du changement, alors que le rôle de fournisseur de ressources informatiques évolue. Le premier but recherché est la mutualisation de l’infrastructure, en y faisant cohabiter de multiples utilisations différentes telles que le calcul, l’hébergement ou les services internes. A terme, le parc est simplifié avec l’adoption de matériel de plus en plus générique où la spécialisation de l’usage est prise en charge par les applications. Cette mutualisation permet d’optimiser l’utilisation des ressources CPU et la consommation électrique.

Openstack, le cloud manager

Après avoir fait la revue des solutions disponibles et de nombreuses évaluations, le CC-IN2P3 a sélectionné Openstack pour héberger sa plateforme de préproduction, composée de quelques centaines de coeurs. Openstack est une solution qui, bien qu’arrivée tardivement sur le marché a su, en deux ans de développement seulement, devenir la référence du cloud IaaS open source. Désormais doté d’une gouvernance communautaire solide et supporté par de nombreux poids lourds de l’industrie (citons parmi les plus éminents IBM, AT&T, Redhat ou encore HP), Openstack a rattrapé ces prédécesseurs libres et fait désormais office d’outsider de choix pour affronter VMware sur le terrain industriel et commercial.

Au delà du CC-IN2P3, le ciel

A l’avenir, il devient probable que la plupart des fournisseurs de ressources informatiques exposeront une interface IaaS pour proposer à leurs utilisateurs du calcul, du stockage ou du réseau à la demande. Les intergiciels de cloud offriront aux utilisateurs une vision fédérée de ressources multi-sites, hautement disponibles et extensibles à (presque) l’infini.

Mattieu PUEL

n°22
Octobre
2012
Les arrêts de production au CC-IN2P3 : une mécanique bien rôdée
La Control Room du Centre de Calcul © CC-IN2P3

Quatre fois par an, le CC-IN2P3 effectue des opérations de maintenance et de mise à jour de ses services. Ces interventions, qui sortent du cadre de celles réalisées par les agents du Centre au quotidien, nécessitent rigueur, coordination et investissement. Plongée dans cette machinerie bien rôdée que sont les arrêts de production du CC-IN2P3.

Le 18 septembre dernier, le site web du CC-IN2P3 affichait un énorme bandeau sur lequel on pouvait voir l’état des services : ‘arrêtés’, ‘dégradés’ ou ‘en service’, selon les cas. Ce jour là était particulier pour les agents du CC-IN2P3 : un jour d’arrêt de la production pendant lequel on s’efforce d’effectuer les mises à jour et la maintenance des services que l’on ne peut pas faire au quotidien sans impacter les utilisateurs.

Les services du Centre sont arrêtés. Pourtant, pas d’affolement, personne ne court dans les couloirs. Tout est calme finalement pour un jour où rien, ou presque, ne fonctionne. Mais cette sérénité qu’on lit dans les yeux des agents n’est pas le fruit du hasard : c’est plutôt le fruit d’une longue et rigoureuse préparation pour que même les aléas soient gérés et prévus au maximum.

Un mois avant la date fatidique (fixée classiquement selon un planning annuel prédéfini, aux mois de février, mai, septembre et décembre), la mécanique se met en route. Selon un système précis et bien rôdé. L’équipe Opération du CC-IN2P3, responsable de la mise en œuvre des arrêts, lance un recensement des interventions à prévoir, ainsi que leur impact, leur durée et leur contenu exact. A partir de cette liste, une synthèse est faite, répertoriant les interactions entre les différentes interventions puis la date de l’arrêt est fixée. Date qui peut encore être encore modifiée si une expérience majeure indique qu’elle n’est pas compatible avec son calendrier ses contraintes de production.

Une fois la date validée, trois personnes clés sont alors nommées : une responsable de la mise en œuvre de l’arrêt, une personne rattachée à la Control Room (voir photo) et une autre appartenant au groupe ‘Support aux utilisateurs’ pour gérer les relations avec les chercheurs. La réunion de préparation qui suit rassemble ces trois personnes, ainsi qu’un expert par service impacté qui sera l’interlocuteur privilégié pendant toute la durée de l’arrêt.

Une fois le planning des interventions finalisé, démarre la phase de communication vers les agents du Centre et surtout vers les utilisateurs. En effet, la préoccupation première du personnel du CC-IN2P3 pendant les arrêts reste le souci de minimiser au maximum l’impact sur les expériences. Et cela passe forcément par une bonne communication : message sur les consoles de services du Centre avec un décompte jusqu’au jour de l’arrêt, news et brèves sur le site web du Centre ; enfin, mails aux représentants des expériences et bandeau annonçant en temps réel l’état des services… tout est fait pour que les utilisateurs soient informés des services arrêtés suffisamment à l’avance pour qu’ils puissent prendre leurs dispositions.

La veille de l’arrêt, certaines précautions sont prises : par exemple s’il y a une mise a jour sur le système de batch , il faut veiller à vider les serveurs de calcul et faire en sorte que plus aucun job ne s’y trouve au moment de l’arrêt. Le jour J, tout le monde est sur le pied de guerre : chacun se prépare à intervenir au moment précis défini par le planning. Si une intervention est prévue tôt le matin, l’agent peut se connecter de son domicile si c’est possible. Dans le cas contraire, il se déplace sur le site. Tout est prêt pour que tout se passe selon le planning défini à l’avance, selon une suite logique et chronologique, et pour que l’enchaînement des interventions se fasse sans encombre. « On suit le déroulement, étape par étape, avec des points réguliers » précise Nadia Lajili, membre du groupe Exploitation et régulièrement aux commandes des arrêts. Les communications entre experts se font grâce à la messagerie instantanée ou par téléphone. « Il est hors de question qu’on commence à courir dans les couloirs » insiste Nadia Lajili, qui suit pas à pas le planning des interventions.

En cas de problème sur le redémarrage d’un service, il est possible que l’intervention se termine le lendemain matin afin de régler le problème sereinement, en présence des experts. La précipitation sur une intervention pourrait provoquer une succession d’erreurs sur le système, inutile de tenter le diable. « Des tests de mise à jour sont réalisés en amont de l’arrêt sur des serveurs sortis de la ferme, explique Pierre-Etienne Macchi, directeur adjoint du CC-IN2P3. Mais on n’est jamais à l’abri d’un effet ‘démo’ le jour J. »

Une fois tous les services remis en production, une réunion bilan a lieu afin d’évoquer les éventuels dysfonctionnements sur les interventions, la communication entre experts ou le déroulement global de l’arrêt. Dans un souci constant d’amélioration, une liste des points à corriger est élaborée et diffusée à l’ensemble des intervenants, l’objectif étant que les arrêts se passent le plus sereinement pour tous : utilisateurs et experts du CC-IN2P3. L’arrêt du 18 septembre a permis d’intervenir sur des services tels que HPSS, GPFS, dCache, etc. Le prochain arrêt sera un peu particulier, plus long qu’à l’accoutumée et avec une notion de gestion des risques à considérer. Prévu les 11, 12 et 13 décembre, il sera entièrement consacré à la connexion d’une deuxième arrivée électrique sur le poste de livraison EDF. L’entreprise publique ayant demandé une coupure totale de la ligne électrique, aucune intervention informatique ne sera cette fois effectuée sur les services du Centre. Cependant, grâce au groupe électrogène, le CC-IN2P3 maintiendra un certain nombre de services dits critiques (dont la liste précise sera diffusée ultérieurement), tels que le réseau RENATER, les mails et certains services assurant le transfert de données essentielles aux expériences.

Cet arrêt, comme tous les autres, permettra d’améliorer la qualité du service rendu aux utilisateurs du CC-IN2P3, en maintenant un service 365 jours par an… à quatre arrêts près. ☺

GAELLE SHIFRIN

n°22
Octobre
2012
Le LAL s’équipe d’un mur d’image

En 2009-2010, le Laboratoire de Recherche en Informatique (LRI) a mis en place une salle « mur d’image » consistant en 32 écrans (4x8) gérés par plusieurs ordinateurs et un système de caméras permettant la capture de mouvements d’une personne instrumentée de diverses manières (gants, casquette, etc…).

Ce système mis en place, le LRI a fait un appel aux laboratoires de Paris-Sud pour explorer les capacités de ce nouveau genre de plate-forme de visualisation et d’interaction homme-machine pour étudier, manipuler leurs données. Fort d’une culture dans la visualisation et les outils d’analyse des données HEP et astro-particules, le LAL a répondu à cet appel afin de voir si des scénarios intéressants pouvaient se dégager pour améliorer la compréhension de nos données en utilisant ce genre d’environnement.

Un premier jet de logiciel a permis d’explorer en 2010 le scénario du « 3D immersif » où on considère tous les écrans « comme un seul » visualisant un partie du détecteur LHCb en 3D avec une navigation dans la scène (c’est le scénario des jeux vidéos !). Cette première étape a permis de se rendre compte de la réactivité du système qui s’est avérée très bonne avec des scènes pas trop chargées. Bien évidemment, le résultat visuel est très impressionnant et donne clairement le goût à la poursuite de l’exploration de ce genre de plate-forme. Mais le scénario 3D-immersif n’est pas forcément le seul scénario intéressant. Par exemple, un autre scénario attractif serait celui du « brainstorming à plusieurs » devant un mur de données : une ou plusieurs personnes « jettent » des représentations de données sur le mur depuis leur ordinateur personnel puis discutent, manipulent ce qui est vu. Mais ce scénario, pour être attractif et vraiment utilisable dans un laboratoire, ne doit pas être trop contraignant pour l’utilisateur, en particulier il ne doit pas induire une instrumentation trop contraignante des personnes. Or, il s’avère que l’année 2010 a vu l’émergence des tablettes et des écrans tactiles qui changent la donne en ce qui concerne le dialogue homme/machine. En particulier cela change la perspective de ce scénario brainstorming ; il est très facile de croire au scénario de plusieurs personnes arrivant chacun avec leur tablette devant un mur d’écrans tout ou partiellement tactiles, envoyant des données « du bout du doigt » sur le mur puis travaillant sur ces données aussi « du bout du doigt » sur ce mur. Ce scénario « à tablette » est celui qu’on explore en ce moment sur le « petit mur » (le murino) du LAL.

Le murino du LAL

Notre « petit mur » est constitué maintenant de 12 écrans non tactiles (3x4) pilotés par quatre « gros » Macs (trois écrans par machine) plus un Mac de contrôle (le maître). Ce matériel a été fourni en 2010 dans le cadre d’un projet ARTS par Apple. Bien que moins impressionnant que le mur du LRI, ce matériel « sur place » offre d’excellentes performances qui permettent d’avancer rapidement sur les logiciels et donc d’explorer divers scénarios. Pour les tablettes, on utilise au quotidien un iPad-1 et un Samsung Galaxy S sous Android-2.2.

Les choix logiciels ; langage, rendu graphique, interface utilisateur :

iOS et Android utilisent tout deux de l’OpenGL « ES » (Embedded System) comme couche de rendu de base. Comme GL-ES existe aussi pour les autres systèmes (MacOSX, Linux, Windows), et donc aussi sur les machines du mur, on a développé un gestionnaire de « graphe de scène » s’appuyant sur GL-ES (inlib/exlib) pouvant afficher indifféremment sur le mur mais aussi sur les tablettes. Pour le langage de programmation, comme C et C++ sont communs à tous ces environnements et si on « croit en l’OO », le C++ s’impose donc comme choix naturel. Un point important dans nos choix est de gérer l’interface utilisateur aussi avec notre graphe de scène basé sur GL-ES. En effet, suivre les choix d’Apple et Google sur les tablettes aurait contraint à ce que chaque élément de l’interface utilisateur (bouton, liste, etc.) aurait du être décrit avec une librairie spécifique et dans un langage spécifique (Objective-C pour iOS et java pour Android), chose qui aurait été difficilement gérable par un homme seul. Ici, même si l’aspect de nos boutons laisse parfois à désirer, la fonctionnalité est là et nous pouvons gérer, avec le même code, nos « smart-devices » et notre murino.

A part le graphique et l’interface utilisateur, une plate-forme de visualisation multi-machines-multi-écrans demande aussi une logique spécifique pour que cela soit vu comme un « tout cohérent ». Pour l’instant nous avons convergé vers une architecture client/serveur avec un programme « chef d’orchestre » tournant sur la machine maître et un programme client par écran sur les « machines mur » (soit treize processus en tout au LAL et 33 pour le mur du LRI). Les clients étant déjà installés sur les « machines mur », le démarrage se fait par un simple shell script sur la machine de contrôle qui démarre le programme maître puis les douze clients par commandes ssh. La communication maître/clients se fait par un protocole dédié implémenté sur de la « socket de base » disponible en standard sur tout les systèmes (y compris iOS et Android). L’« affichage cohérent » est fait par « rendu tuilé » : chaque programme écran gère une partie de la projection d’une même caméra globale virtuelle. Le programme maître quant à lui affiche une seule fenêtre visualisant par des rectangles la disposition des écrans du mur. Cette fenêtre sert essentiellement à capturer les déplacements et cliques de la souris qui sont reflétés sur le mur par un « curseur mur » pouvant, bien évidement, passer indifféremment d’un écran à l’autre (et donc aussi d’une machine à une autre). Un interface utilisateur (donc fait en GL-ES) est disponible sur un des écrans du mur et est activé au travers du « curseur mur » depuis la machine maître. Avec une souris sans fil connectée à la machine maître, une personne peut manipuler le tout en étant face au mur avec une forte impression d’immersion. Mais ce scénario ne permet pas pour l’instant l’interaction à plusieurs puisqu’il n’y a qu’une seule souris disponible sur la machine maître. En ayant tout ou une partie des écrans du mur en tactile, il serait relativement facile de modifier les programmes pour tenir compte de plusieurs « curseurs mur ». Nous avons essayé le pilotage du « curseur mur » depuis l’iPad mais le rapport en pixels mur/iPad ne va pas dans le sens de la haute précision de pointé et les manipulations deviennent vite très pénibles. Ceci nous a conforté dans l’idée que les tablettes seront idéales comme « fournisseur de données qui sont ailleurs » mais pas forcément comme moyen de contrôle des opérations sur le mur. Pour un moyen de contrôle efficace on est tout de même impressionné par les vidéos du « Electronic Visualization Laboratory » de Chicago montrant des opérations sur un mur fait avec des écrans tactiles (voir « Fleet Commander » sur YouTube) ; c’est « simple et de bon gout » et probablement la solution qui sera la plus facile et la plus simple d’emploi à mettre en place dans des laboratoires.

Comme « fournisseur de données » nous avons déjà les applications ioda, g4view, agora, pmx disponibles sur l’AppStore et GooglePlay, qui peuvent se connecter au programme maître pour envoyer des plots, détecteurs, événements sur le mur. Pour l’instant, un seul fournisseur peut se connecter au maître et il est bien évidement prévu de poursuivre les développements pour que le maître accepte plusieurs fournisseurs de données. L’application ioda peut lire et visualiser des images astronomiques dans des fichiers fits et des histogrammes et ntuples aux formats AIDA-XML et ROOT. g4view peut lire et visualiser un détecteur au format GDML et lancer une simulation avec Geant4. On rappelle que Geant4 est une librairie C++ permettant de faire le suivit de particule dans la matière qui est très utilisée en simulation HEP mais aussi pour le spatial à l’ESA et pour le médical.

Les données HEP

Etant dans un laboratoire de physique, on doit bien évidement se concentrer sur « ce qu’on peut en faire » pour la physique. Déjà le scénario « diaporama » s’est dégagé lors des journées « fêtes de la science ». Vu les réactions des visiteurs (oh, ah !), on voit bien déjà que ce genre de plate-forme peut être un formidable outil pour faire de la communication. Il serait facile d’« enfoncer le clou » et d’envisager de laisser tourner des programmes « 3D immersifs » laissant aux visiteurs une marge d’interaction avec le système ; voir par exemple sur YouTube ce qui a été fait en partenariat avec Google pour la maquette numérique « Paris Métropole 2020 » au Pavillon de l’Arsenal. Ici le mur (en fait une dalle) a un écran tactile maître où le visiteur peut naviguer dans une version très Parisienne de Google map.

Et pour le « vrai travail » de physique ? Nous avons déjà mentionné ioda et g4view qui permettent d’amener des « données génériques » sur le mur. Mais pour vraiment intéresser un physicien il faudrait pouvoir câbler en direct les logiciels de son expérience sur les machines du mur et les tablettes. Comme dit la chanson « parlez moi de moi, y a que ça qui m’intéresse ». Mais la pour l’instant les logiciels des expériences (LHC et autres) sont taillés pour « du Linux pour le batch sur la grille » et le portage sur d’autres OS pour l’interactif n’est pas dans la liste des priorités. Ceci peut se comprendre dans cette phase « traque du Higgs », mais c’est tout de même bien dommage de rester « en aveugle » sur ces questions. Déjà on peut regretter que des event display comme le Panoramix d’LHCb (grosse implication du LAL) ne profiteront probablement jamais de ces nouvelles technologies, mais on peut aussi regretter de couper de facto la voie à l’exploration de scénarios prometteurs comme le contrôle d’une expérience dans un « tout cohérent » avec un mur d’image. (Pour l’instant le physicien en shift a plutôt à faire au scénario « forêt d’écrans » !). Tous ces points ne sont pas du à des barrières technologiques (iOS, Android, OSX sont des UNIX pour lesquels ont a g++) mais plus à des (gros) problèmes de sociologie, de qualité des logiciels, et clairement d’un manque de vision à moyen et long terme de la communauté HEP sur les questions des « logiciels proches de la physique ».

En conclusion, l’année 2010 a ouvert la décennie en fanfare avec de nouvelles technologies interactives comme les tablettes et l’idée des « mur d’image ». Va-t-on pouvoir en profiter pour faire de la physique ? Au LAL, on a déjà sauté dans ce train pour maîtriser la programmation et l’utilisation de ces nouvelles plate-formes, mais cela ne suffira pas si il n’y a pas de volonté côté « logiciels pour la physique » pour « sortir la tête du guidon du batch pour la grille » et être capable d’amener les logiciels des expériences sur ces nouveaux… TGVs ! (Très Grande Visualisation).

Liens utiles :

- Pour le mur du LRI : http://insitu.lri.fr/Projects/WILD

- Portail pour nos logiciels basés sur inlib et exlib : http://softinex.lal.in2p3.fr. Voir la section "wall" pour quelques photos de notre murino. Voir les sections ioda, g4view, pmx, agora pour nos applications iOS et Android. Voir la section "inlib/exlib" pour les idées qui ont mené à ces librairies et pour le gestionnaire de graphe de scène sur GL-ES.

- http://www.evl.uic.edu : le site du EVL de Chicago. Chercher aussi sur YouTube "Fleet Commander".

- http://geant4.cern.ch : le site de la librairie Geant4 de suivi de particules dans la matière.

Pour le pavillon de l’Arsenal chercher par exemple "Maquette numérique, Paris Métropole 2020" sur YouTube.

Guy BARRAND

n°22
Octobre
2012
Le CC-IN2P3 inaugure son Musée de l’informatique

L’idée est née il y a quatre ans lors de la première édition du Festival Particule.com. Certains ingénieurs du CC-IN2P3, avec à leur tête Fabien Wernli, avaient envie de présenter d’anciens matériels informatiques aux collégiens et lycéens, de leur montrer l’évolution de l’informatique, quitte à passer pour de vrais ringards en parlant de minitels et de cartes perforées à ces accros aux iPhone et autres tablettes intelligentes.

Il y a quatre ans donc, a rapidement été organisée une exposition au rez-de-jardin du Centre, nous avons récupéré du matériel qui traînait sur des étagères poussiéreuses et demandé un coup de main à l’association Aconit (Association pour un COnservatoire de l’Informatique et de la Télématique). Cette exposition connut un vif succès auprès des élèves et de leurs professeurs, ainsi que du grand public.

Fort de ce succès, l’idée a été reprise, retravaillée. Après tout, pourquoi ne pas organiser une exposition permanente au sein du CC-IN2P3 ? Comment montrer l’évolution fulgurante de l’informatique ? Comment expliquer les concepts de base sans donner la migraine aux visiteurs ? mais aussi comment expliquer que les physiciens ont souvent été à l’avant-garde de certains développements, comme le web ?

L’idée a mûri, les équipes ont travaillé ensemble pour imaginer un projet qui permette de présenter l’informatique de manière ludique, interactive et de rappeler comment la physique a utilisé ces nouvelles technologies ces quarante dernières années.

C’est ainsi qu’est né le Musée de l’informatique du CC-IN2P3, qui sera officiellement inauguré le jeudi 11 octobre, en même temps que le lancement de la Fête de la Science dans le Rhône.

Cofinancé par la Région, le Musée de l’informatique du CC-IN2P3 sera présenté aux établissements scolaires en avant-première lors de la 2e édition du Festival Particule.com les 11 et 12 octobre, puis tout au long de l’année. Les élèves pourront y découvrir l’évolution du matériel informatique à travers des vitrines, des vidéos, des jeux et des animations.

Le CC-IN2P3 remercie les personnes qui ont répondu à notre appel et nous ont envoyé du matériel.

PS : notez que le Musée de l’informatique a déjà sa première fan :-) (cliquez sur le lien).

Gaëlle SHIFRIN

n°22
Octobre
2012
Du 22 au 25 oct. - 8èmes Journées Informatique de l’IN2P3 et de l’IRFU

Le réseau des Informaticiens IN2P3 et de l’IRFU organise le mois prochain des Journées Informatique destinées à permettre aux informaticiens de l’IN2P3 et de l’IRFU de se rencontrer, échanger leurs expériences et réfléchir ensemble aux évolutions futures.

Les 8èmes Journées Informatique de l’IN2P3 et de l’IRFU se tiendront à La Londe les Maures, du 22 au 25 octobre 2012.

La participation à ces journées est particulièrement recommandée à tous les nouveaux informaticiens entrants à l’IN2P3. En effet, c’est une occasion unique de rencontrer les collègues et d’avoir une vue d’ensemble sur l’informatique dans notre institut. Les anciens informaticiens sont aussi les bienvenus.

La date limite pour les inscriptions est fixée au 5 octobre 2012. Tout le monde doit s’inscrire, y compris les personnes qui ont soumis un article.

Vous pouvez contacter le comité de programme par l’intermédiaire de l’adresse mail : ji-program@in2p3.fr.

19-21 nov. 6e workshop sur la préservation de données

Le 6e workshop sur la préservation de données dans la physique des hautes énergies aura lieu au CPPM, Marseille, du 19 au 21 Novembre 2012.

La réunion sera organisée dans le cadre du projet PREDON et inclura un atelier multi-disciplinaire ainsi qu’une discussion sur les modèles de financement au niveau national et international.

Le programme se trouve ici : https://indico.cern.ch/conferenceDisplay.py?confId=209688.

n°22
Octobre
2012
CDD : Ingénieur Expert en systèmes informatiques, réseaux et télécommunications

Le Centre de Calcul de l’ IN2P3 propose un CDD (durée 3 ans) d’Ingénieur Expert en systèmes Informatiques, réseaux et télécommunications, à compter du 01/10/2012.

Plus d’infos ici : http://cc.in2p3.fr/IMG/pdf/job46_IR_reseaux.pdf.

CDD : Ingénieur Expert en Système de Stockage

Le Centre de Calcul de l’IN2P3 propose un CDD (durée 2 ans) d’Ingénieur Expert en Système de Stockage, à compter du 01/10/2012.

Plus d’informations ici : http://cc.in2p3.fr/IMG/pdf/_job45_IR_ANR_SONGS.pdf.