imprimer
n°25
Octobre
2013
Nobel de Physique : une récompense aussi pour l’informatique du LHC
Fairouz Malek, responsable scientifique du projet LCG-France, revient sur la place de l’informatique dans la découverte du boson de Higgs, récompensée par le Nobel de physique 2013.

- En quoi l’informatique a t-elle contribué à la découverte du boson de Higgs ?

Laissez-moi d’abord vous raconter comment on produit et on détecte un Boson « BEH » (Brout-Englert-Higgs), communément appelé boson de « Higgs » :
au LHC, près de 40 millions de paquets de particules (1011 protons) sont accélérés à, presque, la vitesse de la lumière et entrent en collision toutes les secondes. La théorie nous dit qu’on ne produirait, à priori, qu’un seul boson de « Higgs » toutes les 1010 collisions (10 milliards). D’autre part, le boson de « Higgs » n’est pas une particule stable car elle se désintègre immédiatement en plusieurs particules comme le boson Z, le photon (γ), le W etc. Seuls 3% des désintégrations du « Higgs » vont en Z contre 3‰ qui vont en photons. Si nous avions un détecteur parfait (acceptance de 100%, efficacité de détection des particules de 100%, identification parfaite des particules etc.), alors on détecterait effectivement dans ATLAS ou CMS, 1 boson de « Higgs » qui se désintègre en 2 γ ou en 2 Z toutes les 1013 collisions. En réalité, le taux de détection est très faible. Pour exemple dans ATLAS, sur les 2 ans de prise de données (...)

lire la suite


Le système de traitement de données de LSST mis à l’épreuve durant l’été

Le Large Synoptic Survey Telescope (LSST) qui va être mis en service à la fin de la décennie va fournir une cartographie spatiale et temporelle de l’univers visible d’une précision et d’une exhaustivité sans précédent. Équipé d’un miroir primaire de 8,40m de diamètre et d’une caméra comptant 3.2 milliards de pixel couvrant un champ de vue instantané de 9 degré2, LSST va photographier systématiquement près de la moitié du ciel (soit environ 20 000 degré2) durant dix ans. Chaque zone du ciel correspondant au champ de la caméra sera photographiée à travers 6 filtres passe-bandes (u, g, r, i, z, y) à raison d’une paire d’images toutes les 40 secondes. Les champs d’application du LSST sont extrêmement larges et couvrent de nombreux domaines de l’astrophysique et de la cosmologie : le système solaire, la physique stellaire et la structure de la voie lactée, la formation et l’évolution des galaxies et la cosmologie. En ce qui concerne les thématiques développées à l’IN2P3, cet instrument fournira une (...)

lire la suite


JDEV : l’édition 2013 mérite 19/20

Les JDEV, les Journées nationales du DÉVeloppement logiciel, sont organisées par DEVLOG, le réseau des développeurs dans le monde de l’éducation-recherche. Elles se veulent avant tout un lieu de rencontre et de partage de compétences des développeurs de cette communauté. La première édition de 2011, alors que le réseau DEVLOG n’était pas encore officiellement en place, avait reçu une adhésion inattendue. Elles avaient rassemblé plus de 200 développeurs à Toulouse. L’IN2P3 avait fourni un dixième de la participation. Cette année, les JDEV2013 ont eu lieu du 4 au 6 septembre à l’École Polytechnique. On a compté plus de 540 inscriptions. Ce chiffre montre bien le besoin de la communauté du développement dans le monde de la recherche de se rencontrer pour mieux se connaitre et partager ses expériences. Une enquête de satisfaction a révélé 95% de satisfaits, d’où le titre de cet article. Les JDEV, un évènement DEVLOG Les JDEV sont d’abord un évènement du réseau DEVLOG, elles ne sont pas une conférence de plus sur le développement. Un accent particulier est mis sur la vocation (...)

lire la suite


Atrium - Le nouvel outil de Gestion Electronique des Documents pour l’IN2P3

Afin de faire évoluer la gestion documentaire à l’Institut, la direction adjointe technique de l’IN2P3 a souhaité mettre en place un nouvel espace collaboratif pour la gestion électronique des documents. Atrium permettra notamment d’assurer la pérennité de vos documents tout en proposant une interface intuitive. Réalisée en étroite collaboration avec les experts des laboratoires, la mutation d’EDMS vers Atrium est en cours. Les membres des laboratoires et les responsables de projets pourront faire appel à une cellule support spécifique lors de la mise en production d’Atrium. Une vaste étude menée par les experts du Groupe EDMS, a permis d’identifier les critères d’élaboration de ce nouvel outil. La sécurisation de vos documents a été évidemment au centre de cette étude. Suite à des tests comparatifs de différents produits, c’est l’outil de gestion documentaire Nuxeo qui a été sélectionné (basé sur une plateforme Open Source). La migration de la plateforme EDMS vers Atrium a été confiée par la (...)

lire la suite


Le réseau LoOPS

Comment nait un réseau Lors des JDEV2011 à Toulouse, Maxence Guesdon d’Inria (qu’on appelait encore l’INRIA à l’époque ;-) m’a interpellé : « Quand est-ce qu’on lance un réseau de développeurs autour d’Orsay ? ». Le réseau LoOPS était né. Après avoir sollicité plusieurs laboratoires (LLR, labo de Math d’Orsay, LPT, LRI entre autres), nous avons rapidement formé un « comité de pilotage », (vilain) terme incontournable des réseaux de métiers, obtenu la création de deux ou trois listes auprès de Renater, et réfléchi aux actions réalisables « à coût zéro », puisque nous n’avions aucun financement. Le nom et le logo, prérequis absolus, le site, indispensable Pour le nom, Maxence a organisé un petit concours arbitré par un “vote condorcet” qui a consacré un nom, LoOPS, qui n’est pas vraiment un acronyme, mais dans lequel on retrouve : un paradigme fondamental (mais pas pour autant indispensable) de la programmation, une allusion au mot « logiciel » deux initiales laissées à la libre interprétation du lecteur (PS : Paris Sud ? Paris Saclay ? Pour la Science ?) et une dynamique ascendante de l’orienté Objet (oO). Libre à vous d’y trouver d’autres (...)

lire la suite

Interview

"Après 12 ans, on peut dire que le bilan de l’activité Webcast est positif"

#TITRE
Olivier Drevon, en charge du Webcast au Centre de Calcul de l'IN2P3/CNRS.

lire l'interview

Agenda
Rencontres France Grilles - LCG-France, du 26 au 28 novembre
Les prochains Rencontres France Grilles - LCG-France se dérouleront du 26 au 28 novembre (...)

en savoir plus

Journées SUCCES, les 13 et 14 novembre
Les Journées SUCCES, rencontres Scientifiques des Utilisateurs de Calcul intensif, de Cloud Et (...)

en savoir plus

Soirée-Débat « L’Homo numéricus sera-t-il libre ? »
Une soirée proposée dans le cadre des rencontres "Et si on en parlait" de l’Université de Lyon, en (...)

en savoir plus

CHEP, du 14 au 18 octobre
La 20e édition de CHEP (Conference on Computing in High Energy and Nuclear Physics) se déroulera (...)

en savoir plus

JRES, du 10 au 13 décembre
L’édition 2013 des JRES aura lieu au CORUM à Montpellier du 10 au 13 décembre 2013. Depuis 1995, (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2013 CCIN2P3
n°25
Octobre
2013
Nobel de Physique : une récompense aussi pour l’informatique du LHC
Collision "candidate" pour signer la présence d’un boson de Higgs. (détecteur Atlas, mai. 2012) ©ATLAS/CERN

Fairouz Malek, responsable scientifique du projet LCG-France, revient sur la place de l’informatique dans la découverte du boson de Higgs, récompensée par le Nobel de physique 2013.

- En quoi l’informatique a t-elle contribué à la découverte du boson de Higgs ?

Laissez-moi d’abord vous raconter comment on produit et on détecte un Boson « BEH » (Brout-Englert-Higgs), communément appelé boson de « Higgs » : au LHC, près de 40 millions de paquets de particules (1011 protons) sont accélérés à, presque, la vitesse de la lumière et entrent en collision toutes les secondes. La théorie nous dit qu’on ne produirait, à priori, qu’un seul boson de « Higgs » toutes les 1010 collisions (10 milliards). D’autre part, le boson de « Higgs » n’est pas une particule stable car elle se désintègre immédiatement en plusieurs particules comme le boson Z, le photon (γ), le W etc. Seuls 3% des désintégrations du « Higgs » vont en Z contre 3‰ qui vont en photons. Si nous avions un détecteur parfait (acceptance de 100%, efficacité de détection des particules de 100%, identification parfaite des particules etc.), alors on détecterait effectivement dans ATLAS ou CMS, 1 boson de « Higgs » qui se désintègre en 2 γ ou en 2 Z toutes les 1013 collisions. En réalité, le taux de détection est très faible. Pour exemple dans ATLAS, sur les 2 ans de prise de données (2011 et 2012) où l’on a produit des millions de particules dont environ 500 000 bosons de « Higgs », nous n’en avons détectés que quelques centaines se désintégrant en 2 γ (à comparer aux quelques milliers prévus si le détecteur avait été parfait). On peut facilement comprendre que pour illustrer ces recherches, on montre souvent cette image d’une aiguille dans une énorme botte de foin ! Qui dit énorme botte de foin, dit énorme quantité de données à traiter, à défricher, à nettoyer et à analyser.

Revenons à l’informatique : la chaine naturelle de la production scientifique en physique des particules et plus particulièrement au LHC est celle-ci : collisions dans le LHC, détection par les instruments (les 4 expériences LHC), traitement électronique puis informatique de proximité (au CERN), envoi des données aux divers centres de calculs internationaux (environ une dizaine dont le CC-IN2P3) pour calibration et reconstruction, analyse dans des centres de calculs appropriés (environ une centaine dont une dizaine en France). En parallèle, et même avant les prises de données, l’infrastructure de calcul est utilisée aussi pour générer un important volume de données (ex : générateurs Pythia, AlpGen, etc.) qui seront simulées dans les conditions réelles de l’instrument (avec Geant). Cette phase est importante pour comprendre l’instrument, le calibrer et comparer les données réelles aux modèles théoriques. Et finalement, après une infinité de réunions pour exploiter, vérifier et valider les résultats : LA publication. Cette chaine peut prendre 6 mois ou 2 ans selon ce qu’on cherche.

L’informatique intervient partout, à tous les niveaux, même dans le contrôle de la machine LHC et en particulier pour guider, contraindre et délivrer les faisceaux de particules. Ce qui est visible et facile à expliquer, c’est la grande infrastructure de calcul dite W-LCG où la technologie de grille s’est imposée. Ce qui est moins visible mais extrêmement important, c’est le "software" de chacune des expériences LHC qui, pour chacune d’elles exige des milliers de lignes de code, qui doit évoluer constamment au gré des technologies et des modèles de calcul mis à jour pour parfaire le calcul. C’est le résultat de décennies de développements par une très grande communauté. In fine, le physicien interprète les données reconstruites grâce à des outils informatiques (Root, Geant etc.), encore eux. Derrière le calcul scientifique, l’informatique et les grandes infrastructures qui les supportent, il est important de comprendre qu’il y a des êtres humains sans lesquels il n’y aurait pas eu de découverte.

- 10 ans après le démarrage de la grille, quel regard portez-vous sur cette aventure ?

Un mot et un seul : succès ! Prétendre le contraindre serait malhonnête, pire malveillant. Le mérite revient à la persévérance de tous. Mais ça n’aurait jamais été une réussite si le but était vague comme par exemple "juste faire de la grille" parce que c’est à la mode de l’époque ! Le but principal, c’était UNE découverte, DES découvertes... C’est aussi le but "nominal" du LHC qu’on a toujours appelé : la machine de découverte. La seule leçon à retenir de la grille de calcul après 10 ans de son existence, c’est que nous l’avions conçue pour réussir. CQFD !

- Pourtant, la grille n’a pas toujours fait l’unanimité…

Cette question ne se pose même pas en physique des particules. W-LCG a été conçue pour cette discipline, très exigeante technologiquement, très libre dans ses choix et ses conceptions et surtout avec un but "clair" : la découverte attendue. Il fallait exiger du calcul au LHC ce qu’on exige des détecteurs et des physiciens : la performance, pousser le bouchon le plus loin pour arriver au meilleur ! W-LCG fait l’unanimité dans ses performances et ses résultats. Il n’y a aucun doute. W-LCG continuera à pousser le bouchon pour « mieux faire ». La physique des particules est une discipline de pointe et de pointilleux.

Vouloir démocratiser la grille de calcul est louable mais on ne peut pas obliger des communautés d’utilisateurs d’autres disciplines à l’utiliser si le besoin et la demande ne vient pas d’eux et surtout s’ils n’y apportent aucune contribution « technique » pour leurs propres besoins. Avec la grille, on a voulu faire un parallèle avec le web né au CERN mais on ne peut pas imposer à l’histoire 2 fois la même réussite ! D’autre part, le web s’est imposé de lui-même au "public". La grille de calcul (de la physique des particules), un peu lourde de conception et d’utilisation n’est pas transposable au public et encore moins à des scientifiques qui n’ont pas les mêmes outils de travail, pire les même objectifs et exigences.

- Qu’est ce qui a fait que ça a fonctionné ?

Le même rêve : UNE découverte au LHC.

Mais pas seulement. Dans les années 90, lorsque je préparais ma thèse de doctorat, je faisais partie d’une collaboration CERN de 20 personnes. Lorsque j’ai été recrutée au CNRS, j’ai adhéré à une collaboration CERN de 80 personnes. Au LHC, nous sommes des milliers ! Et nous savons travailler ensemble par tradition.

Construire une grille à grande échelle, avant d’être un défi technologique, c’était un enjeu collaboratif. Il fallait reproduire en informatique ce qui se fait déjà avec succès, en instrumentation et en ingénierie pour construire les grands détecteurs installés sur les sites des expériences auprès du LHC. Cela a fonctionné parce que tous les instituts, universités et laboratoires de par le monde ont contribué et parce que le CERN a pleinement joué son rôle de coordination.

- Maintenant que le boson est trouvé (et reconnu via le Nobel), que reste t-il à trouver ? Quelle est l’avenir de LCG ?

Le Nobel de Physique 2013 a été attribué à 2 théoriciens (Englert et Higgs, Brout étant décédé en 2011) pour la découverte théorique du mécanisme contribuant à notre compréhension de l’origine de la masse des particules. Découverte confirmée par les expériences ATLAS et CMS, l’été 2012. Englert et Higgs ont contribué à la compréhension d’une partie des énigmes qui sont traquées par les physiciens des particules. A ce jour, les théories qui prédisent l’existence des particules supersymétriques, les théories qui prévoient des dimensions supplémentaires dans lesquelles le graviton (entre autres) se propagerait, les théories (ou les observations spatiales) qui prédisent une asymétrie matière anti-matière, les observations du ciel qui annoncent l’existence d’une matière noire qui formerait un halo autour de notre galaxie etc. ne sont pas confirmées. A côté de ça, notre compréhension des propriétés du plasma de quarks et de gluons et son existence bien avant-même la formation des atomes et des galaxies dans l’univers, est encore loin d’être complète. Le LHC a été conçu pour explorer des domaines en énergie où certaines de ces théories peuvent être explorées par ATLAS et CMS mais aussi par LHCb et ALICE. De nouvelles découvertes en perspectives ? On y croit très fortement ! Avec le redémarrage du LHC à une énergie dans le centre de masse de près de 14 TeV à partir de 2015, on va explorer au-delà de ce qu’on sait aujourd’hui : le modèle standard confirmé par la découverte du boson de « Higgs » de 126 GeV !

Plus d’énergie, plus de section efficace de production des phénomènes attendus, plus de bruit de fond ..... Plus de données, plus de calcul, plus d’analyse. LCG a de beaux jours devant lui pourvu que la quantité de ressources mises à disposition par les agences de financement (le CNRS et le CEA pour la France) soient à la hauteur des attentes des expériences LHC, des physiciens, des « softeux » et des « calculeux » !

Fairouz MALEK

n°25
Octobre
2013
"Après 12 ans, on peut dire que le bilan de l’activité Webcast est positif"

Olivier Drevon, en charge du Webcast au Centre de Calcul de l’IN2P3/CNRS.

- Pourquoi une cellule Webcast ?

Il n’y a pas de raison précise. En 2001, Gérard Drevon et Daniel Charnay ont équipé l’amphithéâtre du CC-IN2P3 avec une caméra et installé un serveur streaming pour "tester". Les résultats furent concluants et l’institut étant intéressé, nous avons pour la première fois, webcasté le Conseil Scientifique de l’IN2P3. C’est ainsi que l’activité Webcast au CC-IN2P3 a débuté.

Il fallait quelqu’un pour aller sur place, capter les images, c’est à ce moment que j’ai rejoint le navire et que je me suis retrouvé à Strasbourg pour le webcast des Journées Informatique de l’IN2P3 - IRFU.

En bref, nous diffusons en direct et/ou en différé sur internet vos manifestations, colloques et conférences scientifiques.

- Quels sujets sont majoritairement traités ?

Comme je le disais, tout a commencé autour des Conseils Scientifiques de l’IN2P3 et des Journées Informatique. Puis l’INIST a rapidement manifesté son intérêt pour le webcast des RPIST (Rencontres des Professionnels de l’IST - Information Scientifique et Technique), premier webcast hors des frontières de l’IN2P3, qui a véritablement lancé l’activité en dehors de l’institut.

Aujourd’hui les webcasts ne sont pas axés sur une discipline plus qu’une autre. Nous intervenons bien entendu pour le CNRS mais également pour l’INSERM, l’Académie des Sciences, etc. La cellule Webcast diffuse par exemple "Les défis scientifiques du 21ème siècle", qui sont particulièrement visionnés.

Nous webcastons différentes manifestations scientifiques, allant des conférences d’une heure et demie aux colloques d’une semaine (par exemple i-chep ou quark matter).

- Concrètement, comment fonctionne le webcast ?

Le principe de fonctionnement est resté le même depuis le début : installation de caméras, captation des images et du son, mixage et encodage en direct et diffusion en direct puis en différé des vidéos, depuis notre serveur de streaming, hébergé au CC-IN2P3

Le dernier changement : le format vidéo. Au début nous exploitions le format propriétaire Real de la société RealNetworks. Nous travaillons maintenant avec un format plus ouvert, le Mp4, qui présente le gros avantage de pouvoir être visionné de façon quasi universelle sur la plupart des supports informatiques contemporains (desktop, tablettes, smartphone, etc.).

Bien entendu, nous avons fait évoluer notre matériel et continué à développer nos outils web au fur et à mesure de l’évolution des techniques.

J’en profite également pour vous rappeler l’adresse du site internet dédié au webcast : http://webcast.in2p3.fr/

Mis à jour en 2011, le but premier était de changer le format de notre vidéothèque (passage au format MP4), mais aussi de rendre l’activité Webcast plus visible qu’elle ne l’était déjà et plus professionnelle.

A son arrivée, Philippe Correia a eu pour mission de re-développer entièrement la partie web du site Webcast. Partant d’un site statique sans base de données, d’une vidéothèque dans un format vieillissant, ainsi que d’un système de gestion manuel des pages, la tâche a été ardue. Son intervention a néanmoins permis de donner au site une interface graphique contemporaine et attrayante ainsi que des outils d’administration efficaces pour les webmasters. Nos clients disposent maintenant eux-aussi de comptes sur la plate-forme leur permettant de gérer eux-même leur propre vidéothèque. Nous pouvons nous féliciter d’avoir aujourd’hui développé ce que nous pourrions appeler un VMS (Vidéo Managment System), à l’instar des CMS qui foisonnent aujourd’hui sur Internet.

Ce site, mais aussi le changement de format, ont grandement contribué à l’accroissement de notre visibilité.

- Quel bilan faites-vous après douze années d’activité ?

Avec ces années de recul, nous ne pouvons dresser un bilan que positif. En 2001, nous webcastions 2 ou 3 événements par an et nous en sommes maintenant à 3 ou 4 par mois.

De plus, un véritable réseau s’est créé autour de cette activité. Les personnes qui ont fait appel à nos services semblent ravies et n’hésitent pas à nous recontacter les années suivantes et à nous confier le webcast d’autres événements.

Par contre, j’ai quand même quelques regrets. La cellule Webcast n’a pas la visibilité qu’elle devrait. Pourtant, il y a encore beaucoup de choses à faire et j’ai beaucoup d’idées.

- Quelles sont les perspectives de l’activité ?

Depuis le départ en retraite d’un membre de l’équipe, la cellule compte une personne de moins. Il assurait l’aspect réseau du webcast qui est bien évidement primordial, ainsi que le support aux utilisateurs. Il ne sera pas remplacé, d’où mon inquiétude.

Par contre, je suis ravi que le LAL (Laboratoire de l’Accélérateur Linéaire) participe à l’activité Webcast. Nous travaillons de plus en plus avec eux et notamment Gérard Dreneau, Grégory Perrin et Daniel Bresson. Plus d’effectifs, plus de matériel, nous pouvons ainsi répondre à plus de demandes et compter les uns sur les autres.

De nombreux webcast restent donc à venir.

PROPOS RECUEILLIS PAR VIRGINIE DUTRUEL

n°25
Octobre
2013
Le système de traitement de données de LSST mis à l’épreuve durant l’été
Association des bases de données déployées dans Qserv avec des portions de la sphère céleste selon un pavage en géométrie sphérique. Chaque zone recouvre légèrement ses voisines afin d’optimiser les recherches sur les objets proches des limites des pavés.

Le Large Synoptic Survey Telescope (LSST) qui va être mis en service à la fin de la décennie va fournir une cartographie spatiale et temporelle de l’univers visible d’une précision et d’une exhaustivité sans précédent. Équipé d’un miroir primaire de 8,40m de diamètre et d’une caméra comptant 3.2 milliards de pixel couvrant un champ de vue instantané de 9 degré2, LSST va photographier systématiquement près de la moitié du ciel (soit environ 20 000 degré2) durant dix ans. Chaque zone du ciel correspondant au champ de la caméra sera photographiée à travers 6 filtres passe-bandes (u, g, r, i, z, y) à raison d’une paire d’images toutes les 40 secondes. Les champs d’application du LSST sont extrêmement larges et couvrent de nombreux domaines de l’astrophysique et de la cosmologie : le système solaire, la physique stellaire et la structure de la voie lactée, la formation et l’évolution des galaxies et la cosmologie. En ce qui concerne les thématiques développées à l’IN2P3, cet instrument fournira une cartographie en 3 dimensions des objets dans l’univers, dont l’étude des propriétés statistiques permettra de contraindre les modèles cosmologiques et l’énergie noire en particulier. La mesure de la 3ème dimension s’effectuera grâce à l’estimation du décalage vers le rouge (z) des objets les plus lointains par une méthode photométrique.

Sur le plan de la gestion et du traitement des données, LSST va produire chaque nuit de l’ordre de 15To de données brutes qui seront traitées pour moitié au National Center for Supercomputing Application (NCSA) dans l’Illinois et pour moitié au CC-IN2P3 afin de constituer un catalogue d’objets cosmiques. Chaque portion du ciel étant imagée environ 1000 fois au cours des 10 ans d’existence du projet, les logiciels de traitement permettront de co-additionner les images se recouvrant, révélant ainsi des objets de plus en plus faibles et donc de plus en plus éloignés. Cette particularité fait que chaque année, il sera nécessaire de reprendre l’intégralité du traitement des images afin de procéder à cette co-addition. Après 10 ans, la limite de détection atteindra la magnitude 27 correspondant à des objets une centaine de milliards de fois moins lumineux que les principales étoiles du ciel nocturne (Sirius, Bételgeuse …). Les catalogues ainsi enrichis chaque année comprendront finalement de l’ordre d’un milliard d’objets, soit une quarantaine de galaxies par minute d’arc.

Ces catalogues seront disponibles sous la forme d’un système de base de données interrogeable via des commandes SQL. À la fin du projet, le système de base de données atteindra une volumétrie de 34 Po et certaines tables compteront 9000 milliards d’entrées. Cette volumétrie et la contrainte de pouvoir interroger la base en un temps raisonnable a conduit la collaboration à développer Qserv, un système original de bases de données distribuées sur un grand nombre de nœuds, chaque nœud étant associé à une région du ciel selon un pavage sphérique.

La complexité du système de traitement et de gestion des données découle essentiellement du volume de celles-ci et nécessite un programme de tests intensifs et réguliers afin de s’assurer que le système sera capable de faire face au flot de données le moment venu. Cette année, le CC-IN2P3 est intervenu dans ces tests à deux niveaux : Un « data challenge » ou « mise en situation » mettant à l’épreuve le partage du traitement des données entre le NCSA et le CC-IN2P3 et la mise à disposition d’une plateforme matérielle afin de tester la capacité de passage à l’échelle du système Qserv.

Le « data challenge »

En physique des particules, la spécificité des détecteurs fait que les « data challenges » portent la plupart du temps sur un lot de données simulées. La situation est différente pour LSST, car bien que le télescope et la caméra soient tout à fait innovants et sans comparaison en terme de sensibilité et de rapidité par rapport aux précédentes générations d’instruments (SDSS, CFHTLS, DES), des images de relevés photométriques profonds du ciel sont disponibles. La collaboration LSST a donc choisi de tester ses algorithmes et son système de gestion de données sur un lot d’images acquises par le Sloan Digital Sky Survey (SDSS) entre 2005 et 2007 (Stripe 82). En plus de tester la capacité opérationnelle des deux centres de calcul, ce choix permet également de comparer la qualité des algorithmes de LSST avec ceux de SDSS. Les données produites lors du « Data Challenge » ont donc une valeur scientifique en tant que telle.

Les données du Stripe 82 ont été affectées au NCSA et au CC-IN2P3 suivant deux lots de tailles identiques et se recouvrant partiellement afin de s’assurer de la cohérence des résultats entre les deux sites. Le lot de données alloué au CC-IN2P3 représentait 4.8 To pour 4.4 millions de fichiers. Ceux-ci ont été traités durant l’été sur la ferme Univa Grid Engine (UGE) du centre de calcul, l’ensemble du traitement nécessitant 40 000 jobs accédant à un espace disque GPFS, 100 000 heures de calcul (1 millions d’heures HS06) et produisant 19 millions de fichiers pour un total de 85 To. La mise à disposition par le CC-IN2P3 d’un serveur dédié MySQL s’est révélée être un élément crucial pour le succès de ce « Data Challenge », c’est également lui qui permettra de mettre à disposition les données produites en France et aux USA pour une validation scientifique des algorithmes de traitement d’image de LSST. Le transfert des fichiers entre les deux sites est assuré par iRODS par l’intermédiaire d’une instance unique gérée par le CC-IN2P3.

La plateforme Qserv

Comme indiqué plus haut, le système de très grandes bases de données distribuées Qserv est particulièrement innovant. Développé principalement au SLAC et à CALTECH, Qserv bénéficie d’une forte contribution de trois ingénieurs du LPC Clermont en liaison avec le projet interdisciplinaire du CNRS PetaSky qui réunit des scientifiques et des ingénieurs sur le thème du traitement de grandes masses de données. Dans ce cadre, le CC-IN2P3 a fourni une plateforme dédiée de 309 nœuds quad-core Intel Xeon L5430@2.66GHz disposant chacun de 120 Go d’espace disque. Cette configuration a notamment permis de mettre en évidence des problèmes de passages à l’échelle qui étaient passés inaperçus lors de tests précédents sur une plateforme plus restreinte. Ce type de banc de test permet également de tester en vraie grandeur les performances de requêtes complexes correspondant à des cas d’utilisation réalistes. L’implication du CC-IN2P3 a été très forte pour la mise en œuvre matérielle de la plateforme ainsi que pour l’automatisation du déploiement du logiciel Qserv.

Le « Data Challenge » et la plateforme Qserv sont des contributions majeures de l’IN2P3 au projet LSST et sont aussi les premiers jalons d’une contribution française de premier plan pour le traitement et la gestion des données du télescope lorsque celui-ci entrera en fonctionnement à la fin de la décennie.

Dominique BOUTIGNY

n°25
Octobre
2013
JDEV : l’édition 2013 mérite 19/20

Les JDEV, les Journées nationales du DÉVeloppement logiciel, sont organisées par DEVLOG, le réseau des développeurs dans le monde de l’éducation-recherche. Elles se veulent avant tout un lieu de rencontre et de partage de compétences des développeurs de cette communauté. La première édition de 2011, alors que le réseau DEVLOG n’était pas encore officiellement en place, avait reçu une adhésion inattendue. Elles avaient rassemblé plus de 200 développeurs à Toulouse. L’IN2P3 avait fourni un dixième de la participation. Cette année, les JDEV2013 ont eu lieu du 4 au 6 septembre à l’École Polytechnique. On a compté plus de 540 inscriptions. Ce chiffre montre bien le besoin de la communauté du développement dans le monde de la recherche de se rencontrer pour mieux se connaitre et partager ses expériences. Une enquête de satisfaction a révélé 95% de satisfaits, d’où le titre de cet article.

Les JDEV, un évènement DEVLOG

Les JDEV sont d’abord un évènement du réseau DEVLOG, elles ne sont pas une conférence de plus sur le développement. Un accent particulier est mis sur la vocation première de DEVLOG : améliorer la pratique de la production de logiciel au sein de notre communauté. Pour cela, les JDEV présentent trois facettes : la pratique des outils et des méthodologies état de l’art du développement logiciel (les ateliers), l’échange d’expérience (les groupes de travail) et la mise au contact avec des technologies émergentes (les présentations).

Huit thématiques

Cette édition a défini huit thématiques : l’ingénierie des besoins logiciels, les communautés open-source, les systèmes embarqués, les outils de construction du logiciel, méthodes agiles, les tests logiciel, développer pour calculer, le développement web. Un total de près de 100 intervenants, orateurs ou animateurs d’atelier ou de groupe de travail, a été orchestré par les responsables des thématiques. Ces huit thématiques se déroulaient en parallèle pendant les quatre demi-journées centrales. Le programme ainsi offert était, de l’avis général, très riche. Trop riche même diront certains : au moment de l’inscription au “parcours personnalisé”, beaucoup ont eu à faire des choix cornéliens, et auraient eu besoin de deux voire trois JDEV pour suivre tous les ateliers, groupes de travail et présentations qui les intéressaient.

Les plénières

À côté d’intervenants venant majoritairement d’Inria, faisons un petit coup de projecteur sur une présentation qui a tenu ses promesses : Bertrand Meyer, l’auteur du langage Eiffel, a déployé ses talents d’orateur pour une charge souvent humoristique sur le développement agile. Il a tenté d’en dégager les réels apports au milieu d’un certain battage médiatique, à la lumière, de son aveu même, d’un regard solide, certes plus du XXe siècle que contemporain. Si vous n’avez le temps de visionner qu’une présentation, je vous conseille celle-là. La dernière demi-journée a permis de réfléchir ensemble à l’avenir de DEVLOG. En particulier, à la suite de la dissolution de la MRCT et de la reprise du soutien aux réseaux métier du CNRS par la Mission à l’Interdisciplinarité (MI), Vanessa Tocut a fait une présentation très claire sur les attentes de la direction du CNRS vis-à-vis de ces réseaux.

Une participation forte de l’IN2P3

Comme pour les JDEV2011, les participants venant de l’IN2P3 représentaient quasiment un dixième du total. Certes, la proximité géographique du LLR et des laboratoires d’Orsay et de Paris expliquent en partie ce chiffre élevé. Mais l’implication de l’IN2P3 a été aussi très forte au niveau de l’organisation, de la définition du programme et du nombre d’intervenants, encore plus qu’à Toulouse en 2011. Je tiens ici à souligner l’engagement exceptionnel de David Chamont et de son équipe au LLR dans quasiment tous les aspects de la construction de ces JDEV. Je me rappelle sa déclaration quand nous avons appris que ces JDEV allaient se dérouler à Polytechnique : “J’aurais du mal à ne pas m’impliquer dans un évènement majeur du développement qui se tient “sous mes fenêtres” !”. Il a alors relevé le défi d’assumer la responsabilité du comité local d’organisation, le début d’une petite aventure partagée notamment avec quelques-uns des animateurs du réseau local LoOPS. Malgré quelques moments proches du découragement, probablement inévitables dans ce genre d’entreprise, nous gardons tous le souvenir d’un vrai travail d’équipe propre à favoriser à l’avenir d’autres collaborations entre les laboratoires locaux participants (LLR, LAL, IAS, LPT, et même DSI !).

La T4

Comme il a été dit précédemment, toutes les thématiques étaient riches et ont rencontré leur “public”. Mais il est impossible ici de rendre justice à toutes, et on me pardonnera de donner un petit coup de projecteur sur la T4 - les outils de construction du logiciel - qu’Antoine Pérus et moi-même avons pris en charge. Notre ambition était de promouvoir certains “gestes” du développement logiciel par le biais de la pratique de quelques outils utiles à la mise en place d’une chaine de production de logiciel maitrisée. Pour illustrer cette démarche :

• Les ateliers :

- Eclipse (comme pivot d’outils d’intégration continue),
- explicitation de workflow de développement à l’aide de systèmes de gestion de codes distribuée,
- production de document(ation) avec Sphinx,
- déploiement sur le cloud avec SlipStream,
- qualité du code avec Sonar et la gestion de la dette technique,
- (re)construction de logiciel moderne avec WAF (merci Maude d’avoir relevé le défi !).

• Les groupes de travail/tables rondes autour de

- l’utilisation de forges logicielles,
- les outils permettant de contrôler un développement en programmation visuelle (à la LabView),
- les outils supportant l’approche DEVOPS de mise en production de logiciels développés avec une méthode agile.

• Enfin, les présentations ont repris plusieurs de ces thèmes, en y ajoutant une technologie “état de l’art”, LLVM, qui soutend tout une nouvelle génération de compilateurs et d’outils associés (analyse de code, deboggage, refactoring, ...)

Les autres interventions de l’IN2P3

Les JDEV peuvent être considérées comme une école avec 500 participants, et à ce titre, contrairement aux JRES par exemple, ne lancent pas d’appel à contribution pour des présentations. Nous avons voulu quand même que les JDEV soient l’occasion pour ceux et celles qui le désiraient de présenter leurs travaux de développement à leurs pairs, par le biais de posters. Après des débuts un peu incertains, nous avons fini par approcher les 50 posters ! Là aussi, l’IN2P3, ou plutôt le RI3 en comptant nos amis de l’IRFU, a tenu son rang : 8 posters, on dépasse les 10% ! Une mention spéciale pour un poster “lourd” : le mur(ino) d’images de Guy Barrand, qui a été transporté du LAL dans le hall de Polytechnique pour l’occasion.

Le programme social et l’intégration de la promo 2013

Un programme social permanent, centré sur les arts numériques, a été proposé par Karin Dassas de l’IAS. Il a culminé par un concert étonnant de chercheurs du LIMSI qui savent mêler intimement leurs dons musicaux avec leur recherche. Pour l’anecdote, nous avons assisté à un évènement surprenant par bien des aspects : la “semaine d’intégration” des élèves (très) fraichement reçus au prestigieux concours d’entrée à l’X. Assister à la”mise au pas” de ces futurs cadres de la nation par l’armée est une expérience rare qu’il sera difficile de reproduire lors des prochaines éditions des JDEV.

Et maintenant ?

Un coup d’œil au site des JDEV2013 permet de se convaincre aisément de la richesse des échanges au cours de ces trois jours. Le travail des équipes de webcast du CC-IN2P3 et du LAL, remarquable comme on y est maintenant habitué, permet de revivre une partie, hélas partielle, de ces JDEV. On a fait aussi appel aux services de Cosmovia de l’APC pour compléter ces retransmissions/enregistrements, car les présentations des thématiques parallèles se déroulaient dans deux amphis différents simultanément. La perspective d’organiser les JDEV2015 représente un nouveau défi. Je suis sûr que l’IN2P3 y tiendra à nouveau toute sa place.

Merci à Antoine Perus et David Chamont pour leur contribution à cet article.

Christian HELFT

n°25
Octobre
2013
Atrium - Le nouvel outil de Gestion Electronique des Documents pour l’IN2P3

Afin de faire évoluer la gestion documentaire à l’Institut, la direction adjointe technique de l’IN2P3 a souhaité mettre en place un nouvel espace collaboratif pour la gestion électronique des documents. Atrium permettra notamment d’assurer la pérennité de vos documents tout en proposant une interface intuitive. Réalisée en étroite collaboration avec les experts des laboratoires, la mutation d’EDMS vers Atrium est en cours. Les membres des laboratoires et les responsables de projets pourront faire appel à une cellule support spécifique lors de la mise en production d’Atrium.


Une vaste étude menée par les experts du Groupe EDMS, a permis d’identifier les critères d’élaboration de ce nouvel outil. La sécurisation de vos documents a été évidemment au centre de cette étude. Suite à des tests comparatifs de différents produits, c’est l’outil de gestion documentaire Nuxeo qui a été sélectionné (basé sur une plateforme Open Source).

La migration de la plateforme EDMS vers Atrium a été confiée par la direction technique à une équipe projet pilotée par Christian Arnault (LAL), en mutualisant des compétences du Centre de Calcul et de la Cellule IAO/CAO de l’IN2P3, qui – à terme - assurera le support aux utilisateurs dans la phase d’exploitation de ce portail documentaire.

Atrium a pour but d’être utilisé par tous. Son ergonomie, sa simplicité d’utilisation et la richesse de ses fonctionnalités apporteront une réelle amélioration de la production et la gestion documentaire dans les laboratoires. Le service sera ouvert aux tests durant le second semestre 2013 pour une mise en production progressive en 2014. Atrium a pour ambition d’occuper, à terme, la place centrale dans la gestion documentaire à l’Institut.



L’outil Atrium

Tout en assurant une continuité de service par rapport à l’outil EDMS, Atrium se présente résolument comme une application moderne alliant la puissance de ses concepts à une ergonomie intuitive, exclusivement basée sur une interface Web, que ce soit pour l‘utilisation quotidienne ou pour les fonctions d’administration. Toutes les pratiques habituelles fonctionnelles ou ergonomiques dans des contextes Windows ou Mac sont présentes :

- Drag & Drop
- Interfaces graphiques
- Possibilité d’accès direct via un montage disque (à-la-Dropbox)
- Possibilité de sauvegarde transparente depuis les outils Office

La simplicité et l’efficacité sont les maîtres mots d’Atrium.

- Stocker : des espaces fonctionnels et fiables pour déposer ses fichiers
- Partager : un accès facile aux documents pour tous
- Organiser : une structure intuitive liée à nos pratiques habituelles
- Sécuriser : des droits d’accès flexibles mais entièrement sécurisés
- Gérer : une gestion des versions automatisée
- Collaborer : un cycle de vie unifié avec des workflows collaboratifs optionnels
- Faciliter : l’intuitivité de l’outil est une préoccupation majeure

Atrium offrira également la possibilité à tout agent de l’Institut, de gérer ses propres documents dans un espace personnel limité par des quotas.

Organisation nationale d’Atrium

L’organisation Atrium est structurée autour de l‘équipe projet, d’un comité de pilotage et d’un comité des administrateurs et des utilisateurs, actuellement en cours de constitution sous l’égide des laboratoires. Une stratégie de formation des administrateurs et des utilisateurs va se structurer et se mettre en place, associant des stages, des tutoriels interactifs, et des cycles de présentations de l’outil.

Christian ARNAULT

n°25
Octobre
2013
Le réseau LoOPS

Comment nait un réseau

Lors des JDEV2011 à Toulouse, Maxence Guesdon d’Inria (qu’on appelait encore l’INRIA à l’époque ;-) m’a interpellé : « Quand est-ce qu’on lance un réseau de développeurs autour d’Orsay ? ». Le réseau LoOPS était né. Après avoir sollicité plusieurs laboratoires (LLR, labo de Math d’Orsay, LPT, LRI entre autres), nous avons rapidement formé un « comité de pilotage », (vilain) terme incontournable des réseaux de métiers, obtenu la création de deux ou trois listes auprès de Renater, et réfléchi aux actions réalisables « à coût zéro », puisque nous n’avions aucun financement.

Le nom et le logo, prérequis absolus, le site, indispensable

Pour le nom, Maxence a organisé un petit concours arbitré par un “vote condorcet” qui a consacré un nom, LoOPS, qui n’est pas vraiment un acronyme, mais dans lequel on retrouve :

- un paradigme fondamental (mais pas pour autant indispensable) de la programmation,
- une allusion au mot « logiciel »
- deux initiales laissées à la libre interprétation du lecteur (PS : Paris Sud ? Paris Saclay ? Pour la Science ?)
- et une dynamique ascendante de l’orienté Objet (oO).

Libre à vous d’y trouver d’autres significations cachées… (merci de nous les faire connaître !). Mais c’est surtout le logo que je trouve réussi. Sur une proposition de Maxence, raffinée à l’envie par le reste du CP, il a permis à David Chamont de pénétrer les charmes cachés mais ô combien puissants du SVG. Infatigable, Maxence a alors créé un site, thème du réseau oblige, sur Github. Ce site se veut un carrefour d’informations locales pour les développeurs, tout en gardant une vision plus large en agrégeant celles venant des autres réseaux similaires de DEVLOG.

Les journées LoOPS

L’organisation de plusieurs journées LoOPS a permis à une cinquantaine de développeurs de la région de se rencontrer plus ou moins régulièrement. Nous sommes actuellement sur un rythme de deux journées par an, sans exclure bien sûr d’autres actions plus ponctuelles. Le format commence à se stabiliser : présentations sur un thème (ou pas !) le matin, et l’après-midi ateliers qui permettent de pratiquer un outil ou une méthodologie. Nous veillons à mettre à côté de ces ateliers des séances « Dojo » (construction d’un petit code sur une machine unique prise en main à tour de rôle par les participants toutes les cinq minutes). Nous sommes en train de mettre en place des séances régulières, pour faire profiter le plus de monde possible de cette expérience toujours très enrichissante de partage de savoir-faire et de travail collaboratif.

L’implication dans les JDEV2013

Plusieurs d’entre nous se sont investis dans une participation significative à la préparation et la tenue des JDEV2013 (voir l’article sur les JDEV dans ce numéro de la lettre informatique). Et ce n’est certainement pas à fonds perdus : nous comptons bien recycler dans LoOPS les ateliers et discussions préparées à cette occasion.

Pourquoi un réseau local de développeurs ?

Pour moi, une des richesses premières apportées par la mise en place de LoOPS tient dans les échanges à tous niveaux : une implication forte dans l’activité réseau amène immanquablement à découvrir, et éventuellement à s’approprier, de nouveaux outils, de nouvelles méthodes mis en pratique par « les autres ». Même si la concentration forte de labos IN2P3/IRFU sur Paris-Sud donne naturellement une coloration de notre institut à LoOPS, ce qui fait l’intérêt de ce réseau est son ouverture au-delà de l’IN2P3 (Maths, IAS, LPT, …) et aussi du CNRS (Inria, INRA, Université), tout en restant à l’échelon local.

Et le RI3 ?

Au moment où Giovanni relance une activité réseau forte au sein de notre institut, il est important de s’interroger sur les interactions entre les réseaux locaux, le RI3 et DEVLOG. Un message de base de Giovanni Lamanna (notre chargé de mission à l’informatique, je rappelle), est « stand up, fit in », un message que j’approuve totalement : nous devons réaliser nos propres développements, spécifiques à notre discipline, mais en tenant le plus grand compte de ce qui se fait ailleurs. Cela permet de construire des infrastructures solides, adaptées à nos besoins, mais qui peuvent à tout instant tirer avantage de l’environnement plus large dans lesquels elles s’inscrivent (y compris en disparaissant !). Les réseaux locaux, par les contacts fréquents et fructueux qu’ils permettent avec nos collègues d’autres horizons, sont un moyen précieux d’arriver à ce résultat.

S’il existe un réseau local dans votre région, rejoignez-le ! S’il n’existe pas, créez-le !

Christian HELFT

n°25
Octobre
2013
JRES, du 10 au 13 décembre

L’édition 2013 des JRES aura lieu au CORUM à Montpellier du 10 au 13 décembre 2013.

Depuis 1995, les Journées RESeaux (JRES) sont une référence pour les acteurs de l’enseignement supérieur et de la recherche en France. Organisées tous les deux ans dans une grande ville de métropole, elles proposent quatre journées de conférences sur les thématiques définies par le Comité de Programme des JRES, assorties d’une exposition des partenaires industriels et institutionnels. Elles réunissent les acteurs qui contribuent au déploiement et à l’essor des nouvelles technologies de l’information et de la communication dans les établissements d’enseignement supérieur et de recherche.

Plus d’informations à l’adresse https://www.jres.org.

CHEP, du 14 au 18 octobre

La 20e édition de CHEP (Conference on Computing in High Energy and Nuclear Physics) se déroulera du 14 au 18 octobre prochains à Amsterdam.

Programme et inscriptions à l’adresse http://www.chep2013.org.

Soirée-Débat « L’Homo numéricus sera-t-il libre ? »

Une soirée proposée dans le cadre des rencontres "Et si on en parlait" de l’Université de Lyon, en écho aux débats "Parlons-en !" du CNRS.

Plus d’informations et inscription sur le site internet de l’Université de Lyon.

Attention : nombre de places limité !

Journées SUCCES, les 13 et 14 novembre

Les Journées SUCCES, rencontres Scientifiques des Utilisateurs de Calcul intensif, de Cloud Et de Stockage, se dérouleront les 13 et 14 novembre prochain à l’IPGP, Paris.

Venez découvrir les dernières avancées scientifiques et techniques sur grilles de calcul, mésocentres et cloud.

Venez donner votre avis sur des sujets d’actualités
- Big data
- Sécurité
- Horizon2020
- Partage du savoir

Venez rencontrer vos futurs partenaires ou collaborateurs !

Les Journées SUCCES seront entièrement webcastées et accessibles ici.

Les inscriptions (gratuites et obligatoires) seront ouvertes jusqu’au Lundi 4 novembre.

Le programme est consultable en ligne.

Rencontres France Grilles - LCG-France, du 26 au 28 novembre

Les prochains Rencontres France Grilles - LCG-France se dérouleront du 26 au 28 novembre prochains, au CC-IN2P3, Villeurbanne.

Programme et inscriptions à l’adresse https://indico.in2p3.fr/conferenceD...

n°25
Octobre
2013
CDD : Ingénieur Administration Stockage et Base de données

Dans le cadre du projet eTRIKS, Le Centre de Calcul recherche un ingénieur informaticien pour la mise en place et l’exploitation du système de Stockage et de Base de Données de la plateforme tranSMART de gestion de connaissance.

Profil détaillé et procédure de candidature.