imprimer
n°35
Novembre
2016
Le CC-IN2P3 célèbre ses 30 ans à Lyon

En 2016, plusieurs laboratoires de l’IN2P3 ont fêté leur anniversaire. Le 7 octobre dernier, le CC-IN2P3 a lui aussi célébré sa 30e année à Lyon et a profité de cette date symbolique pour revenir sur ces décennies de collaboration avec les plus grandes expériences de physique.

Peu de gens le savent mais le CC-IN2P3 est né dans les années soixante, avant la création de l’IN2P3 qui date de 1971, sous l’impulsion de trois laboratoires parisiens : l’Ecole Polytechnique, le Collège de France et celui de l’université actuellement appelée Paris VI. A l’époque, il était installé sur le campus de Jussieu, sur le site de la Halle aux Vins.

En 1986, son transfert vers Lyon fut décidé dans le cadre de la politique de décentralisation et son directeur de l’époque, Jacques Cohen-Ganouna, organisa son déménagement sur le campus de la Doua, où il est toujours. Depuis, le CC-IN2P3 a été le centre de calcul de référence pour de nombreuses collaborations scientifiques : des premières expériences installées sur le LEP du CERN à la découverte du boson de Higgs sur l’accélérateur LHC, en passant par l’expérience BaBar sur l’antimatière. Au fil des années, le Centre de Calcul a montré qu’il savait accompagner les chercheurs et répondre aux défis technologiques qui lui étaient posés, au travers par exemple du web, de la grille ou aujourd’hui du (...)

lire la suite

Acquisition de données

Prototypage pour le futur trajectographe de CMS

Alors que le LHC est entré dans sa seconde période d’exploitation (Run 2), des équipes sont déjà à pied d’œuvre pour préparer les phases futures à très haute luminosité de l’accélérateur prévues à l’horizon 2025. Des évolutions importantes des détecteurs (augmentation de la granularité, résistance à des taux de radiation accrus) mais aussi des systèmes de lecture, de déclenchement et d’acquisition sont prévues. Depuis 2012, notre équipe, Systèmes de Mesure et d’Acquisition de l’Institut Pluridisciplinaire Hubert Curien est impliquée dans les travaux de prototypage du système d’acquisition de données pour la jouvence du trajectographe de CMS. Dans ce contexte, il est inévitable de procéder par itérations successives, tout l’enjeu pour le développement logiciel étant d’arriver à gérer les évolutions imposées par les changements de matériel et de firmware (microcode embarqué), l’ajout de nouvelles fonctionnalités et la succession des tests en faisceaux. La phase d’installation du HL-LHC (High Luminosity Large Hadron Collider) se déroulera pendant l’arrêt prolongé "Long Shutdown 3" qui (...)

lire la suite

Gestion de données

Plan de gestion de données, contraintes supplémentaires ou réelle opportunité ? Quels enjeux ?

L’ouverture et l’accès aux données de la recherche font l’objet d’attention croissante depuis le début des années 2000 de la part de toutes les parties prenantes : l’OCDE, l’UNESCO, les agences de financement, les universités, les organismes de recherches et même certains éditeurs. Corollaire de ce mouvement, le Plan de Gestion de Données (PGD), ou « Data Management Plan » en anglais, est l’outil proposé dans la cadre de différents programmes (Horizon 2020 de la commission européenne, NSF, NASA aux USA par exemple) et par les agences de financement de différents pays tels que les Pays-Bas ou le Royaume Uni, pour formaliser la gestion des données d’un projet, pendant et après le projet, et par conséquent établir formellement la façon dont les données sont ou seront accessibles et par qui. Le Plan de Gestion de Données est un document formalisé dont l’ébauche ou la première version, est à fournir lors du dépôt de la proposition de projet et qui est pris en compte dans (...)

lire la suite

Communauté

JI2016 : Retour sur la dixième édition des Journées Informatique IN2P3 IRFU

Retrouvez le programme, toutes les vidéos des présentations plénières, et faites part de votre avis via le questionnaire ouvert à tous. Réunissant près de 120 personnes dans le Cantal, cette dixième édition a été à la hauteur de nos attentes. Force est de constater qu’au fil du temps, cette réunion biannuelle rencontre toujours un vif engouement et a trouvé sa place au sein de la communauté des informaticiens des deux instituts. Cette année, dès la mise en place des comités d’organisation, nous avons ressenti un dynamisme communicatif, une envie de partager et de s’investir, qui sont allés crescendo jusqu’à cette belle semaine ensoleillée de fin septembre, passée ensemble. Parmi les caractéristiques appréciées de ces journées : la priorité donnée aux échanges et la variété des formes de contribution (présentation traditionnelle, éclair, atelier, piscine, table-ronde, groupe de discussion…), faisant la part belle aux nouvelles idées et aux sujets. La présence de Volker Beckmann et de Christian Olivetto a (...)

lire la suite

Sécurité

La sécurité des systèmes d’information, suis­-je concerné ?

L’essentiel de la production scientifique du CNRS (et de l’IN2P3) est dématérialisé, stocké sous forme de fichiers ou de bases de données. Il est indispensable de les protéger et d’en permettre l’accès aux différentes personnes habilitées. Ceci a des implications (personnel, moyens financiers, contraintes...) sur les moyens et sur les méthodes de stockage, d’accès et de partage de ces données. La sécurité de ces systèmes d’information repose sur trois piliers fondamentaux : Confidentialité : les informations ne doivent être accessibles qu’aux seules personnes autorisées ou habilitées. Vous seuls, créateurs d’information, en connaissez le degré de confidentialité ! Intégrité : les données ne doivent être modifiées que par une action légitime et volontaire. Disponibilité : le système doit répondre aux sollicitations des utilisateurs autorisés dans un délai imparti, propre à chaque application et/ou système. Dans les laboratoires, ce sont les Administrateurs des Systèmes et Réseaux (ASR) qui gèrent les (...)

lire la suite

Equipe

Directeur de la publication  : Alain FUCHS.
Responsable éditorial : Volker BECKMANN, Pierre-Etienne MACCHI.
Comité de rédaction : David CHAMONT, Frédérique CHOLLET LE FLOUR, Virginie DELEBARRE DUTRUEL, Dirk HOFFMANN et Gaëlle SHIFRIN.

Interview

"Le Data Grid a fait que les gens ont commencé à se parler..."

#TITRE
Christian Helft, ancien responsable du service Informatique du LAL et animateur du RI3, à la retraite depuis cet automne

lire l'interview

Journal SW&C for Big Science
Comme présenté lors des JI, un journal (électronique) est en cours de création autour de (...)

en savoir plus

Bilan Journées mésocentres, 11-12 octobre - Paris
Les neuvièmes journées méso­centres se sont déroulées à l’Institut Henri Poincaré à Paris les (...)

en savoir plus

CHEP & HEPiX
CHEP 2016 et HEPiX Fall 2016, les deux conférences organisées conjointement par SLAC et LBNL, (...)

en savoir plus

Agenda
Webinaire RI3 "Retour de CHEP2016", 25 novembre à 9h30
Prévu le 25 novembre prochain à 9h30, l’annonce sera prochainement mise en ligne sur le site web (...)

en savoir plus

Journées SUCCES, 23 et 24 novembre - Paris (IPGP)
Dédiées aux utilisateurs des mésocentres et des infrastructures de grilles ou de cloud, les (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2016 CCIN2P3
n°35
Novembre
2016
Le CC-IN2P3 célèbre ses 30 ans à Lyon

Evénement

En 2016, plusieurs laboratoires de l’IN2P3 ont fêté leur anniversaire. Le 7 octobre dernier, le CC-IN2P3 a lui aussi célébré sa 30e année à Lyon et a profité de cette date symbolique pour revenir sur ces décennies de collaboration avec les plus grandes expériences de physique.

Peu de gens le savent mais le CC-IN2P3 est né dans les années soixante, avant la création de l’IN2P3 qui date de 1971, sous l’impulsion de trois laboratoires parisiens : l’Ecole Polytechnique, le Collège de France et celui de l’université actuellement appelée Paris VI. A l’époque, il était installé sur le campus de Jussieu, sur le site de la Halle aux Vins.

En 1986, son transfert vers Lyon fut décidé dans le cadre de la politique de décentralisation et son directeur de l’époque, Jacques Cohen-Ganouna, organisa son déménagement sur le campus de la Doua, où il est toujours. Depuis, le CC-IN2P3 a été le centre de calcul de référence pour de nombreuses collaborations scientifiques : des premières expériences installées sur le LEP du CERN à la découverte du boson de Higgs sur l’accélérateur LHC, en passant par l’expérience BaBar sur l’antimatière. Au fil des années, le Centre de Calcul a montré qu’il savait accompagner les chercheurs et répondre aux défis technologiques qui lui étaient posés, au travers par exemple du web, de la grille ou aujourd’hui du cloud.

Le 7 octobre dernier, pour ses 30 ans, le CC-IN2P3 a choisi de réunir sur son site, près de 300 personnes, membres du personnel, partenaires académiques, institutionnels et politiques, français et étrangers, pour une journée rythmée par des conférences et des visites de son infrastructure. Ce fut l’occasion de rappeler les grandes avancées scientifiques auxquelles il a contribué, d’évoquer les grands défis à venir et de souligner sa participation au niveau local en rappelant son rôle dans plusieurs projets de traitement de données mutualisés avec des laboratoires lyonnais. Le projet CIDRA financé dans le cadre de l’actuel CPER, qui vise à doter la région Rhône-Alpes d’une infrastructure intégrée de calcul haute performance et de stockage de données unique en France, en est un bel exemple.

La journée a démarré avec les traditionnels discours d’ouverture des représentants locaux puis par une brève histoire du CC-IN2P3, racontée avec malice par Denis Linglin, ancien directeur du Centre. Elle s’est poursuivie avec une série de présentations visant à rappeler le rôle du CC-IN2P3 au sein du paysage informatique français : au niveau de l’IN2P3, avec une intervention de son directeur Reynald Pain, qui a rappelé le rôle central que joue le Centre au sein de l’Institut ; au niveau national avec un exposé de Patrick Garda, du service de la stratégie de la recherche et de l’innovation à la Direction générale de la recherche et de l’innovation (du Ministère de la Recherche), qui a notamment mentionné la récente labellisation du Centre en tant que data center national. Enfin, Wainer Lusoli, de la Commission Européenne, est venu lui expliquer l’implication du centre dans le futur projet European Open Science Cloud.

La matinée s’est terminée avec l’intervention de Thierry Deboischevalier, directeur exécutif au sein de la société DELL, qui a mis en avant le partenariat qui lie le CC-IN2P3 et la société américaine, par ailleurs sponsor de l’événement, autour de la fourniture d’une plateforme technologique qui sert notamment au test de matériel pour l’expérience LSST.

Pierre-Etienne Macchi, directeur du Centre, a ouvert la séance de l’après-midi avec un focus sur les enjeux actuels du CC-IN2P3 puis il a laissé la parole à Frédéric Hemmer, responsable du Département IT du CERN, qui a présenté les défis qui restaient à relever avec les expériences post LHC. La contribution du Centre de Calcul dans l’expérience LSST, qui constitue l’un de ses défis dans les années à venir avec son catalogue de milliards d’objets célestes, a ensuite été mis en évidence dans l’intervention remarquée de Steven Kahn, directeur du projet. Enfin, clin d’œil à l’actualité, Benoit Mours, physicien au Laboratoire d’Annecy-Le-Vieux de Physique des Particules, a conclu la série de conférences avec une intervention sur la recherche sur les ondes gravitationnelles.

La journée du 7 octobre fut enfin l’occasion de rendre un dernier hommage à Jacques Cohen-Ganouna, décédé en 2015, en donnant son nom à l’amphithéâtre actuel du Centre. Noël Giraud, ancien du CC-IN2P3, aujourd’hui à l’Institut de Physique Nucléaire de Lyon, a conduit la cérémonie. Dans un discours à la fois drôle et émouvant, il en a profité pour raconter qui était cet homme charismatique qui a dirigé le Centre d’une main de fer durant plus de vingt ans.

Gaëlle SHIFRIN (CC-IN2P3)

n°35
Novembre
2016
"Le Data Grid a fait que les gens ont commencé à se parler..."

Christian Helft, ancien responsable du service Informatique du LAL et animateur du RI3, à la retraite depuis cet automne

Christian, d’après mes renseignements, tu as commencé ta carrière au LAL en 1974, pour participer au contrôle commande de DCI.

Oui. L’anneau de collision DCI était en construction et je faisais un stage sur son contrôle-commande. C’était l’année où la particule J/ψ a été découverte simultanément à SLAC et au CERN. À la suite de cette découverte, le LAL a obtenu des moyens et des postes pour accélérer la construction de son anneau, qui était pile dans la bonne gamme d’énergie pour étudier cette particule beaucoup plus confortablement qu’avec les accélérateurs de SLAC ou du CERN. Aussi sec, je suis entré au LAL, en même temps d’ailleurs que trois autres ingénieurs de SUPELEC. Quatre postes pour des ingénieurs de Grande École d’un coup, un chiffre qui fait rêver aujourd’hui !

Quelle était ton école d’origine ?

J’ai fait l’École de Physique et Chimie Industrielles de la Ville de Paris (ESPCI). J’étais dans la filière physique d’une promotion assez petite à l’époque, 40 à 50 personnes. Mais j’ai fait une maîtrise d’informatique en même temps.

Tu étais l’un des premiers étudiants dans la filière « informatique » donc.

Oui, c’était récent. Mais je n’étais pas dans la première promotion en informatique.

Qu’est-ce qui a attiré le jeune informaticien que tu étais dans les années 1970 au LAL et à l’IN2P3 ?

J’avais commencé à travailler sur le contrôle-commande de cet anneau de stockage DCI. C’était l’époque, difficile à imaginer aujourd’hui, où on reliait les ordinateurs de contrôle PDP-11 entre eux par des modules CAMAC (le standard d’interfaçage avec le hardware de la machine) développés maison (!), et où on développait les programmes sur ruban perforé en chargeant « à la main », successivement, l’éditeur, le compilateur (ou l’assembleur), l’éditeur de lien et, enfin, l’exécutable. Cela m’a plu, et je suis resté sur cette activité quelques années. Puis, le LAL ayant décidé de s’équiper d’un VAX comme ordinateur local, on m’a demandé de m’en occuper.

Les années 1970, cela fait de toi aussi un enfant de la génération post-68 : hippies, Vietnam et Apple. Tu te sens comme un représentant authentique de ces événements qui ont changé le monde ?

Ah, 68 c’était avant ! En 1974, c’était déjà largement éteint, même si cela m’a passionné à l’époque où j’étais au lycée. Cela reste un souvenir inoubliable, ces quelques mois où tout était possible. Mais non, cela ne m’a pas influencé plus que ça pour la suite de mon activité professionnelle.

Une des questions sur laquelle nous n’avons pas pu trouver de consensus au sein du comité de rédaction de la LI était le tutoiement des personnes interviewées. Tu insistais beaucoup pour pouvoir tutoyer les « sujets » des interviews comme dans la vraie vie. Cela reflète la remise en question des coutumes et hiérarchies de cette époque aussi ?

Non, non, cela symbolise pour moi cette particularité de notre communauté à tous les niveaux, du labo, de l’IN2P3 et toute la discipline, d’être finalement une grande famille, où l’on se tutoie tout à fait naturellement. C’est quelque chose que j’apprécie énormément, c’est clair. Je trouverais très étrange qu’on se mette à se vouvoyer dans une interview des gens qu’on tutoie tous les jours.

Tu as initié, si mes informations sont correctes, le modèle "service informatique" (contrairement aux "informaticiens d’expérience") au LAL.

Oui, on m’a chargé en 1983 de créer le service informatique du LAL, qui n’existait pas. À cette occasion, on a mis en service le VAX. Et derrière, le labo a senti le besoin, sans doute, de créer un service en tant que tel, et non simplement d’avoir des informaticiens répartis dans les services ou même les groupes de physique. En fait, il y en avait très peu au laboratoire. Et pendant ces années 80, c’était quelque chose de très motivant, de monter ce service. On avait beaucoup de moyens et j’obtenais au moins deux postes par an, des choses qui n’ont vraiment plus de sens maintenant.

J’ai créé ce service avec Christian Arnault, c’était une condition sine qua non. Il était au labo sans vraiment être au labo, mais il travaillait déjà avec nous. Et après les discussions qu’on avait eues tous les deux, je me sentais vraiment d’attaque pour monter quelque chose à partir de ce tout petit noyau.

Le LAL était donc le premier laboratoire à essayer ça. Était-ce retenu comme modèle par les autres laboratoires ?

Non, pas à ma connaissance. D’autres labos avaient déjà des services informatiques, mais en règle générale montés autour du on-line. Nous ne nous sommes jamais concertés entre labos sur comment mettre en place des services informatiques. Pour moi, l’IN2P3, en tout cas dans la communauté informatique, a vraiment commencé dans les années 2000, quand on a initié les Journées Informatique, et puis, c’est vrai, autour de la mise en place de la grille de calcul. Le Data Grid a fait que les gens ont commencé à se parler, alors qu’avant, à ma connaissance, cela n’était pas vraiment le cas. C’est à ce moment-là qu’a commencé l’aventure du réseau informatique le RI3.

Ce que j’ai retenu de notre premier contact au LAL en 1992, outre ton affinité pour les ordinateurs de la pomme, était le refus de connecter le LAL à AFS, en attendant l’avènement de DFS (qui n’a pas eu lieu, comme nous le savons aujourd’hui). Tu t’es trompé sur d’autres paris technologiques ?

Sur cet exemple précis, je voulais donner dès le départ une priorité aux standards. Et DFS était présenté comme le standard partout dans l’industrie informatique. Mais, par exemple il y avait un autre standard en train de naître, OSI, incarné par DECnet pour nous, et qui a été renversé par TCP/IP. AFS a été adopté de manière assez isolée par notre communauté, et c’est vrai que nous [au LAL, ndlr] sommes passés à côté, mais sans aucun dommage collatéral, à ma connaissance.

Aujourd’hui tu es probablement l’informaticien le plus connu de l’IN2P3, au sein de l’institut et du CNRS.

Je ne sais pas.

Si, si. Tu as beaucoup travaillé sur les réseaux métier, ASR et développement. Depuis quand tu as vu l’importance de ces réseaux pour notre métier ?

La date du déclic est assez précise en effet. C’était à l’époque où Etienne Augé a été nommé Chargé de Mission pour l’Informatique à l’IN2P3. Jean-Paul Repellin était directeur adjoint scientifique, chargé de l’informatique, et, se sentant un peu mal armé techniquement, a créé cette fonction de CMI, à laquelle il a nommé Etienne. Et c’est avec celui-ci que j’ai discuté l’idée de promouvoir au moins les Journées Informatique, et en général le réseau. Mais le réseau ne s’est concrétisé qu’un peu plus tard, en 2005, à la suite des JI à Bordeaux, avec Frédérique Chollet et Thierry Ollivier, à l’époque où c’était François Etienne le CMI. Les premières Journées Informatique avaient eu lieu en 1999 à la Londe les Maures. D’ailleurs, Daniel Charnay m’a rappelé encore récemment, aux 30 ans du CC-IN2P3, qu’il y avait eu une version « 0 » des JI. C’est vrai, il avait fait quelque chose qui ressemblait pas mal, avec Bernard Perrot et d’autres, une rencontre nationale centrée sur le web. C’était une technologie très commune à tous les labos. Je n’y avais pas participé.

Tu as donc participé à toutes les éditions des Journées Informatique de l’IN2P3 et de l’IRFU. Comment as-tu vécu cette 10e édition ?

Personnellement, c’est une grande satisfaction, un plaisir de voir que cette dernière édition était un moment fort du réseau et de la vie informatique de l’IN2P3. C’est vrai, cela s’est constitué petit à petit, avec des hauts et de bas, et je crois que maintenant elles sont assez incontournables, et surtout, je pense, extrêmement utiles à notre communauté. Les autres communautés nous les envient, même si d’autres ont des actions très intéressantes, avec ce qui se fait actuellement au niveau du CNRS. Mais je crois que les JI restent encore assez uniques.

Tu as beaucoup œuvré pour les Écoles informatiques IN2P3. Quelle est, selon toi, la recette pour une bonne école ?

J’aimerais bien le savoir.

Chaque fois que je me suis relancé dans cette aventure, j’ai eu une appréhension, et l’impression que tout était à (re)faire et très difficile. Évidemment, on peut sous-traiter. Mais une boîte quelconque nous livrera quelque chose d’assez théorique, et l’application à notre communauté restera toujours un peu difficile pour les participants. Donc, trouver le bon intermédiaire entre avoir recours à des spécialistes professionnels et des experts de notre communauté pour avoir avec eux un retour d’expérience, ce n’est pas facile à monter.

Quels sont les trois évolutions ou tournants les plus importants pour l’informatique dans les labos de notre discipline que tu as vus au long de ta carrière ?

C’est une question difficile. Non, franchement, il faut que je réfléchisse.

J’aurais dit que tu mentionnerais le web en premier.

Non, le web, tu veux dire que ça a été créé par notre communauté ? Très bien.

Mais je pense qu’il y a d’autres évolutions plus spécifiques à notre discipline.

Et quelles sont les trois évolutions que tu prédis aujourd’hui, qui feront changer le contexte de notre métier ?

Une chose qu’on m’avait promise, et à laquelle j’ai cru un moment, est la disparition des ordinateurs personnels. Au profit de je ne sais pas quoi. Finalement, je ne vois pas ce qui pourra les remplacer. Il est vrai qu’on a vu des diversifications comme smartphones ou tablettes. Mais on m’avait dit que les postes de travail, les ordinateurs individuels allaient disparaître. C’est loin de se faire. Donc, ce n’est pas une réponse à ta question.

Il y aura certainement la disparition de l’interface utilisateur classique, souris et écran passif, ou plutôt son enrichissement par la voix et l’interaction tactile en général.

Il y a deux évolutions avec lesquelles j’ai « assommé » mon entourage professionnel dans les derniers mois avant mon départ : la très à la mode blockchain, et les réseaux des objets connectés, dont j’ai découvert que, contrairement à ce que la dénomination IOT pourrait laisser penser, ils n’ont rien à voir avec Internet ! Deux technologies à suivre de près.

C’est toi qui as choisi l’endroit pour cette interview, le jardin du Palais Royal dans le 1er arrondissement de Paris. Il y a une raison particulière pour cela ?

Non. À 10 minutes de mon domicile, c’est un lieu naturel de promenade depuis très longtemps. Mais, depuis quinze jours, je le redécouvre en promenant mes petits-enfants. On risque de m’y trouver souvent avec eux dans les années qui viennent.


Christian, un grand merci pour ton énergie et ton implication sans faille dans tous les aspects informatiques de l’institut ! Nous te souhaitons une longue et belle retraite.

Propos reccueillis par Dirk HOFFMANN

n°35
Novembre
2016
Prototypage pour le futur trajectographe de CMS
Le trajectographe de CMS

Alors que le LHC est entré dans sa seconde période d’exploitation (Run 2), des équipes sont déjà à pied d’œuvre pour préparer les phases futures à très haute luminosité de l’accélérateur prévues à l’horizon 2025. Des évolutions importantes des détecteurs (augmentation de la granularité, résistance à des taux de radiation accrus) mais aussi des systèmes de lecture, de déclenchement et d’acquisition sont prévues. Depuis 2012, notre équipe, Systèmes de Mesure et d’Acquisition de l’Institut Pluridisciplinaire Hubert Curien est impliquée dans les travaux de prototypage du système d’acquisition de données pour la jouvence du trajectographe de CMS. Dans ce contexte, il est inévitable de procéder par itérations successives, tout l’enjeu pour le développement logiciel étant d’arriver à gérer les évolutions imposées par les changements de matériel et de firmware (microcode embarqué), l’ajout de nouvelles fonctionnalités et la succession des tests en faisceaux.

La phase d’installation du HL-LHC (High Luminosity Large Hadron Collider) se déroulera pendant l’arrêt prolongé "Long Shutdown 3" qui devrait commencer en 2024 et à la fin duquel les performances de l’accélérateur seront maximales en termes de luminosité, énergie et empilement des événements pour l’exploitation des Run 4, 5, et au-delà.

L’expérience CMS (Compact Muon Solenoid) et en particulier le Trajectographe (ou Tracker), qui est la deuxième couche de détection en partant du centre de ce détecteur, est comme les autres parties concerné par cette mise à jour appelée "upgrade phase-2".

La mise au point de chaque étage de sa future chaîne d’acquisition nécessite la mise en œuvre et le test de nombreux prototypes dont chacun est une étape nécessaire pour atteindre les performances finales désirées.

Notre équipe est présente sur les parties électronique, firmware et logicielle de ce projet, et participe régulièrement à des faisceaux test qui impliquent différents corps de métier. Ceux-ci vont de la conception des modules de détection en silicium en passant par la mécanique, le refroidissement... jusqu’au traitement des données acquises par les physiciens. Ces données font l’objet d’une véritable analyse scientifique qui donne généralement lieu à une publication.

Une stratégie a dû être élaborée pour permettre au logiciel de contrôle et d’acquisition de suivre à la fois les changements de matériel et les successives augmentations de performance.

Ce logiciel, écrit en C++, doit évoluer en même temps que le firmware embarqué dans le processeur FPGA (Field-Programmable Gate Array) des cartes mère utilisées. Celles-ci peuvent être de plusieurs types puisqu’aux cartes génériques GLIB (Gigabit Link Interface Board) équipées d’un Virtex 6 succèdent maintenant les CTA (aussi appelées FC7) équipées d’un Kintex 7. Issues d’un développement effectué par le CERN, ces cartes comprenant un FPGA sur carte mère répondant à des besoins 100% génériques et deux emplacements dits mezzanines pour les besoins spécifiques sont conçues pour être flexibles, évolutives et destinées à être utilisées dans différentes expériences. Elles sont au format Advanced Mezzanine Card pour châssis µTCA mais permettent aussi des premiers développements hors crate ou sur table. Le standard microTCA (micro Telecommunications Computing Architecture), très utilisé dans le secteur des télécommunications, a été choisi pour remplacer l’actuel VMEbus en fonction de ses performances mais également pour sa pérennité en regard des échelles de temps particulièrement longues des expériences du LHC. Le CERN est d’ailleurs partie prenante dans la mise au point de ses spécifications, au même titre que l’IN2P3.

Pour gérer ces changements, notamment les générations successives de cartes électroniques, nous avons proposé d’écrire une couche logicielle intermédiaire permettant de présenter une interface commune aux fonctions supérieures. Cette couche intermédiaire, le middleware Ph2_ACF (Phase-2 Acquisition & Control Framework) comporte une partie de description du matériel de détection des particules et une partie interface permettant de le contrôler.

En plus des différences au niveau des cartes mère génériques, ce middleware doit également gérer une grande diversité de cartes mezzanine spécifiques.

En effet, les cartes mères peuvent accueillir chacune deux mezzanines au format FMC (FPGA Mezzanine Card) qui apportent des fonctionnalités spécifiques : entrées / sorties nécessaires à l’acquisition, communication avec une autre carte, contrôle de modules de détection. Ces modules de détection comportent une électronique frontale commune, totalement incluse dans un circuit intégré, le CMS Binary Chip (CBC). Chacun de ces circuits CBC pilote 254 pistes de détection et possède de nombreux paramètres à configurer.

Pour permettre la mise en œuvre de plusieurs cartes, de types différents avec des mezzanines contrôlant chacune un nombre variable de CBC, le format de sortie des données devra, dans sa version définitive, gérer cette modularité. Ce format à l’élaboration duquel nous participons intégrera donc de nombreux modes de fonctionnement parmi lesquels l’ajout de paramètres optionnels ou la simulation de fonctions assurées par des éléments matériels non présents comme la concentration des données.

Des classes sont donc régulièrement ajoutées au modèle pour assurer ces traitements et de nombreuses autres évolutions sont encore à prévoir.

Ce middleware est ainsi devenu un projet à part entière au développement duquel participent maintenant plusieurs laboratoires de différents pays, ce qui a nécessité de basculer le dépôt « git » des sources vers une organisation où chaque proposition de modification passe par la soumission d’une requête de tirage (pull request). Le middleware sert de base à plusieurs systèmes d’acquisition, parmi lesquels notre propre logiciel d’acquisition.

Celui-ci fonctionne sous XDAQ, une plate-forme logicielle développée par le CERN et utilisée pour le Online CMS, présentant l’interface utilisateur dans un navigateur et permettant l’envoi des données vers les autres couches logicielles de CMS assurant leur distribution, traitement et stockage. L’ensemble des couches constitue le CMS Software (CMSSW).

Les faisceaux test qui se succèdent au rythme d’un ou deux par an sont également un bon moyen de mesurer les avancées en terme de performances et de technologies employées. Ainsi pour le nombre de pistes, nous sommes passés en 2012 de 254 pistes de détection à deux fois 254, puis quatre fois, puis huit, pour arriver à seize fois fin 2015.

Ce nombre ainsi que les autres caractéristiques gérées par nos systèmes d’acquisition vont continuer à augmenter nous rapprochant petit à petit de la configuration de production définitive.

Christian BONNIN (IPHC)

n°35
Novembre
2016
Plan de gestion de données, contraintes supplémentaires ou réelle opportunité ? Quels enjeux ?

L’ouverture et l’accès aux données de la recherche font l’objet d’attention croissante depuis le début des années 2000 de la part de toutes les parties prenantes : l’OCDE, l’UNESCO, les agences de financement, les universités, les organismes de recherches et même certains éditeurs.

Corollaire de ce mouvement, le Plan de Gestion de Données (PGD), ou « Data Management Plan » en anglais, est l’outil proposé dans la cadre de différents programmes (Horizon 2020 de la commission européenne, NSF, NASA aux USA par exemple) et par les agences de financement de différents pays tels que les Pays-Bas ou le Royaume Uni, pour formaliser la gestion des données d’un projet, pendant et après le projet, et par conséquent établir formellement la façon dont les données sont ou seront accessibles et par qui. Le Plan de Gestion de Données est un document formalisé dont l’ébauche ou la première version, est à fournir lors du dépôt de la proposition de projet et qui est pris en compte dans l’évaluation de cette dernière. Livrable du projet, il devra également être mis à jour à des dates précises au cours du déroulement du projet. Ces caractéristiques, ajoutées au fait que l’exercice est nouveau, mettent l’accent sur l’aspect formel et sur les conséquences potentiellement néfastes d’un document inadéquat. Ceci explique le foisonnement, et le succès, des formations au PGD qu’elles soient organisées par nos organismes et réseaux métiers sous forme de guides, tutoriaux, journées de sensibilisation ou au niveau européen, par certains projets comme EUDAT et OpenAIre par exemple. Certaines d’entre elles, aujourd’hui consultables en ligne, sont citées plus bas [1] [2] [3] [4] [5] [6] [7].

L’enjeu est important pour le succès des projets. Il est donc nécessaire de bien comprendre, ce qu’est un PGD et comment bien le rédiger, en utilisant les modèles appropriés au contexte du projet et en suivant les recommandations. Dans le cadre du programme Horizon 2020, par exemple, la commission européenne préconise l’utilisation de l’outil développé par le Digital Curation Centre au Royaume Uni.

Mais le PGD est bien plus qu’un document nécessaire au financement d’un projet. Ni « technique », ni informatique, c’est avant tout une feuille de route, en ajustement constant qui explicite concrètement sous forme d’objectifs et d’actions la politique d’ouverture des données du projet. Au cours du temps, plusieurs projets associés à des sources de financements différentes peuvent se succéder pour un même programme de recherche ou expérience. Le Plan de Gestion de Données de chaque projet est alors une brique dans la politique de données de ce programme. Au fil des financements et des plans successifs, l’équipe va concrétiser la politique des données, en procédant à des choix stratégiques, planifiant et optimisant les ressources en vue des objectifs du programme de recherche. Le chercheur ou l’équipe responsable des données pourra s‘appuyer sur des experts de différents métiers : des informaticiens pour les aspects infrastructures (stockage, sécurisation et coûts associés…), des spécialistes de l’IST pour les standards, les alignements avec les référentiels existants ou encore des archivistes pour le choix des données à conserver. Un autre point important est que certains programmes comme Horizon 2020 permettent le financement des actions du PGD du projet pendant le projet.

Certaines communautés scientifiques, de la physique ou du spatial par exemple, organisées de longue date, souvent en large collaborations internationales adressent ces questions depuis longtemps. Leur pratique de la gestion des données accompagne tout le cycle de vie des données, intègre l’ouverture des données en fonction des publics ciblés par les différents objectifs (recherche complémentaire, reproductibilité, enseignement, vulgarisation…) et s’étend aujourd’hui à la préservation à long terme. Ces communautés ont adopté des politiques de données ; elles ont acquis une grande expérience pratique dans le domaine et sont à l’avant-garde dans la réflexion sur les étapes suivantes. Les travaux de CMS sur le sujet et sa politique de données sont un bon exemple de ce qui peut être fait [8]. Leurs préoccupations actuelles portent sur la préservation de la connaissance, du logiciel, de l’utilisabilité et le long terme. On peut citer aussi l’exemple de la collaboration Zeus qui a fonctionné dans les années 1990 auprès de l’accélérateur Hera à Desy et qui a mis en place un Plan de Gestion des Données incluant la préservation et l’accès aux données après la fin du fonctionnement de l’expérience [9]. Grâce à cela, la collaboration continue à utiliser les données préservées et le bénéfice scientifique est loin d’être négligeable.

Dans d’autres disciplines, le travail est organisé bien différemment : les équipes sont composées de quelques personnes, les données sont stockées localement, sur le poste de travail, un disque dur ou le serveur du laboratoire ; bien connues du chercheur, ces données sont de fait peu documentées, peu organisées et rarement diffusées au-delà de l’équipe qui les a collectées ou produites. Après publication des résultats, elles peuvent même être « oubliées ». De nombreuses équipes sont maintenant confrontées à un bouleversement de leurs pratiques pour s’adapter aux conditions actuelles de financement des projets et leurs questionnements sont nombreux pour bien comprendre ce que peut apporter l’ouverture des données poussée par les organismes publics de financement et le mouvement « Open Data ».

Pour aller plus loin, le Groupe d’Intérêt « Active Data Management Plans » [10] de la Research Data Alliance [11] travaille au perfectionnement des Plans de Gestion de Données. Il regroupe des personnes de profils très différents et complémentaires : des spécialistes de l’IST, de la préservation des données, de l’Open Data, des bibliothécaires, des scientifiques de communautés larges (physique, Elixir, sciences sociales), des représentant de financeurs, des informaticiens, des spécialistes de la gestion des données. Les discussions lors du workshop organisé au CERN en juin dernier [12] ont été très riches et de nombreuses idées émises et discutées.

Le groupe cherche à rendre plus évolutifs les PGD et à permettre leur suivi. En effet, on constate qu’en pratique, il y a peu de suivi des plans (au sens suivi de la réalisation des actions décrites dans les plans) et que les PGD ne sont pas toujours réalisés dans l’objectif de vraiment permettre l’exploitation des données à court et long terme. Les financeurs ne s’en servent pas pour évaluer les projets. Pourtant, il est important de mettre en œuvre les plans, de les suivre, d’adapter continuellement cette feuille de route : l’objectif de l’Open Data ne sera atteint que si les actions décrites dans les plans sont effectivement réalisées. Par ailleurs, la reproductibilité fait partie des objectifs des PGD mais on ne peut pas tout rendre reproductible et il y a des problématiques de coûts (non financés actuellement) pour cette reproductibilité. Enfin, à la fin du projet, les financements manquent aussi souvent pour poursuivre ces actions, il faut trouver des solutions.

Certains ont donc émis l’idée de "cloud coins" qui permettraient d’attribuer des budgets (les « coins ») aux projets dont les PGD auraient été validés par les financeurs pour payer des services de "cloud providers" et de "data centers" de façon à assurer la pérennité des données du projet et la reproductibilité des résultats.

D’autres ont identifié des limitations et des manques dans les PGD actuels. Par exemple, il serait intéressant de permettre plus facilement l’utilisation des données ouvertes et des réflexions sont en cours sur des plans utilisables de façon automatique (« actionable DMP »).

Beaucoup d’autres sujets ont été abordés lors de ce workshop comme les politiques de données (qui ne sont pas des PGD à proprement parler) que doivent mettre en place les grands instruments, les fournisseurs de service du type d’un synchrotron par exemple ; la difficulté de se conformer à certaines préconisations du « FAIR » ; le fait que personne ne peut prédire l’avenir et savoir vraiment où est la valeur des données ou encore le constat que l’Open Data est un bon moteur pour la pérennité des données parce qu’il aide à bien conserver tous les paramètres de la capture des données y compris ceux qui sont évidents et implicites à ce moment-là.

A l’IN2P3, des initiatives et travaux existent. Le Centre de Calcul met en place un questionnaire à destination de ses utilisateurs pour les aider à planifier la gestion de leurs données au centre. Volker Beckmann, le DAS calcul & données mène une campagne de sensibilisation à la gestion des données.

Le chemin est encore long mais que de perspectives nouvelles !

Geneviève ROMIER (IDGC)

[1] Réaliser un plan de gestion de données de la recherche - Data management Plan (DMP), guide de rédaction de l’université Diderot

[2] Deboin, M.C. 2014. Découvrir des plans de gestion de données de la recherche, en 4 points. Montpellier (FRA) : CIRAD, 6 p.

[3] Tutoriaux de l’INIST

[4] Journées de sensibilisation : RBDD, Humanités numériques et données ouvertes.

[5] Actions Nationales de Formation : rBDD, RENATIS

[6] Webinars EUDAT-OpenAire

[7] Guidelines on FAIR Data Management in Horizon 2020 - Europa.eu

[8] Présentation CMS en juin 2016 au workshop du groupe de travail ADMP de la RDA

[9] Présentation Zeus en juin 2016 au workshop du groupe de travail ADMP de la RDA

[10] Groupe ADMP de la RDA

[11] La RDA, Françoise Genova aux JDEV 2015

[12] Workshop du groupe de travail ADMP de la RDA au CERN

n°35
Novembre
2016
JI2016 : Retour sur la dixième édition des Journées Informatique IN2P3 IRFU

Retrouvez le programme, toutes les vidéos des présentations plénières, et faites part de votre avis via le questionnaire ouvert à tous.

Réunissant près de 120 personnes dans le Cantal, cette dixième édition a été à la hauteur de nos attentes. Force est de constater qu’au fil du temps, cette réunion biannuelle rencontre toujours un vif engouement et a trouvé sa place au sein de la communauté des informaticiens des deux instituts.

Cette année, dès la mise en place des comités d’organisation, nous avons ressenti un dynamisme communicatif, une envie de partager et de s’investir, qui sont allés crescendo jusqu’à cette belle semaine ensoleillée de fin septembre, passée ensemble. Parmi les caractéristiques appréciées de ces journées : la priorité donnée aux échanges et la variété des formes de contribution (présentation traditionnelle, éclair, atelier, piscine, table-ronde, groupe de discussion…), faisant la part belle aux nouvelles idées et aux sujets. La présence de Volker Beckmann et de Christian Olivetto a permis de partager la vision de la Direction de l’IN2P3 sur l’Informatique et le Calcul [1].

La réussite unanimement reconnue de cette édition 2016 (JI2016) justifie les remerciements et félicitations adressées aux comités de programme, d’organisation, et à tous les acteurs, orateurs et animateurs des ateliers, avec une mention spéciale au LPC Clermont, à l’IdGC (Institut des Grilles et du Cloud) pour leur soutien, à la cellule webcast du CC-IN2P3 et même aux maitres-nageurs de ces JI2016.

En effet, la « piscine numérique » était l’une des nouveautés de ces journées.

L’idée a été lancée au mois de mai dernier par un mèl enthousiaste vantant les mérites d’une nouvelle forme d’atelier, proposée par David Chamont et en partie inspirée des « piscines » des écoles Epita, Epitech et 42. Il s’agissait de mettre à disposition de tous un ensemble de mini tutoriels en ligne, rédigés et faciles à mettre en œuvre, offrant un maximum de choix quant aux sujets, et de les essayer tous ensemble, dans un même lieu et au même moment, pour pouvoir échanger et discuter autour de ces tutoriels. Compte tenu de la liste imposante de sujets proposés (Docker, Ada, Go, Python 2 à 3, PyQt4, C++14, ELK, Spark, OPC-UA, Jupyter, Sphinx, LimeSurvey et MongoDB), impossible d’échapper à la séance de « piscine numérique » prévue le premier jour de 18h00 à 19h00. Merci aux auteurs des « plongeons », transformés en « maitres-nageurs » pour la circonstance ! Ils étaient présents pour vous aider à vous mettre à l’eau, expliquer, argumenter. Cette initiative a permis d’initier quelque chose de nouveau et a, sans conteste, rencontré un petit succès et certainement bousculé les habitudes. Evidemment, après les JIs, la « piscine numérique » reste ouverte [« Piscine Numérique » : https://gitlab.in2p3.fr/MaitresNage... et https://hub.docker.com/u/piscineri3/]. A chacun de choisir un sujet et la hauteur du plongeoir !

Les Journées Informatique sont bien évidemment un moment d’échange intense et de discussion. Autre nouveauté de cette édition : le programme avait prévu deux créneaux d’une heure et demie, dédiés aux discussions avec retour en session éclair. Les sujets ont émergé de la communauté ; identifiés sur place, ils ont fait l’objet de discussions libres en groupe de taille variable. Des questions ou sujets très divers ont été abordés : « Parallélisation et Machine Learning », « Mutualisation : à quelle échelle ? », le B.A. BA de la continuité d’activité, « Les prochaines JI : où ? faut-il les ouvrir à d’autres communautés (INSU par ex.) ? », « les femmes dans l’informatique : pourquoi cette sous-représentation ? » et « la multiplicité des périmètres et des cadres d’actions » (ou comment assurer une certaine cohérence entre projets européens, sollicitations multi-tutelles… et les compétences, les orientations et priorités opérationnelles de l’unité).

L’enjeu est maintenant de donner suite à ces discussions par le biais d’autres actions : webinaires, suivi ou réactivation des groupes RI3, articles dans cette lettre, ou organisation de journées thématiques, car il y a des besoins évidents d’échanger au sein de la communauté, notamment sur tout ce qui concerne le Parallélisme et le Machine Learning, même si les deux sujets ne doivent pas nécessairement être associés. Dans ce domaine, la discussion s’est faite l’écho des propos tenus par Volker Beckmann, DAS (Directeur Adjoint Scientifique) Calcul et Données en introduction aux journées [2], évoquant le besoin d’identification et de reconnaissance des laboratoires et des thésards en informatique concernés et prônant la nécessité de renforcer nos liens avec les spécialistes en calcul intensif et sciences des données. Parmi les actions concrètement envisagées à l’IN2P3 : un projet de création d’un master-projet « Programmation Parallèle et Performance du Calcul » et la participation à la création d’un journal « Software & Computing for Big Science » présentée par Michel Jouvin [2] .

Le message de la direction selon lequel « Il faut considérer l’IN2P3 comme un seul labo, en informatique comme ailleurs » a été entendu. La question de la mutualisation en informatique a aussi été discutée. Déjà pratiquée, par le biais de la centralisation de services au CC, les actions du groupe Active Directory notamment, chacun s’accorde sur le fait que les efforts de mutualisation pourraient être renforcés. Il faut encore améliorer le partage des expériences et des études techniques et mener plus d’actions communes (par ex. gestion des postes de travail, déploiement collaboratif de services IN2P3, partage d’images de service prêtes à l’emploi, déploiement d’une IdP IN2P3 (Identity Provider) au sein de la fédération Renater).

Enfin, le « futur des JIs » semble assuré. Trois laboratoires se sont déjà portés candidats pour organiser les éditions suivantes. La question de l’ouverture de ces journées à d’autres communautés, en particulier à l’INSU, a été évoqué. Mais cette possibilité, en plus de difficultés de logistique et de financement, fait craindre une rupture de l’équilibre qui semble avoir été trouvé aujourd’hui. Les JIs seraient-elles à leur optimum ?

Avec six ateliers, de nombreux plongeons, cette édition a fait la part belle à la technique mais pas uniquement. Merci à tous et Rendez-vous en 2018 !

Frederique CHOLLET LE FLOUR (LAPP)

[1] Intervention de Volker Beckmann en ouverture des JIs

[2] Projet de journal « SW&C for Big Science » présenté par Michel Jouvin

n°35
Novembre
2016
La sécurité des systèmes d’information, suis­-je concerné ?

L’essentiel de la production scientifique du CNRS (et de l’IN2P3) est dématérialisé, stocké sous forme de fichiers ou de bases de données. Il est indispensable de les protéger et d’en permettre l’accès aux différentes personnes habilitées. Ceci a des implications (personnel, moyens financiers, contraintes...) sur les moyens et sur les méthodes de stockage, d’accès et de partage de ces données.

La sécurité de ces systèmes d’information repose sur trois piliers fondamentaux :

  • Confidentialité : les informations ne doivent être accessibles qu’aux seules personnes autorisées ou habilitées. Vous seuls, créateurs d’information, en connaissez le degré de confidentialité !
  • Intégrité : les données ne doivent être modifiées que par une action légitime et volontaire.
  • Disponibilité : le système doit répondre aux sollicitations des utilisateurs autorisés dans un délai imparti, propre à chaque application et/ou système.

Dans les laboratoires, ce sont les Administrateurs des Systèmes et Réseaux (ASR) qui gèrent les matériels et les systèmes d’exploitation. Ils mettent en place les règles qui tentent d’empêcher des intrus (ou personnes non autorisées) d’accéder à vos données. Ils mettent également en place des moyens de pallier aux pannes matérielles, par exemple par des solutions de sauvegarde, à condition que vous les utilisiez !

Mais nous tous, en tant qu’utilisateurs, devons nous mobiliser pour mettre en œuvre un ensemble de mesures, dont nous listons ci­-dessous les principales.

  • Adopter une politique de mots de passe rigoureuse. Les mots de passe sont utilisés pour donner les droits d’accès à nos machines. Il est ESSENTIEL d’avoir un mot de passe complexe, idéalement différent sur chaque plateforme (empêchant un effet de cascade en cas de compromission). Complexe veut dire au MINIMUM 10 caractères avec un mélange de minuscules, majuscules, chiffres et caractères spéciaux, et en les changeant régulièrement. Il ne faut JAMAIS communiquer ce mot de passe en réponse à quelque sollicitation que ce soit, même de la part de vos collègues ou de vos administrateurs.
  • Identifier qui peut avoir accès à vos fichiers et gérer vos droits d’accès. Vos fichiers sensibles (c.à.d confidentiels) ne doivent pas être accessibles sur vos ordinateurs ou sur des clefs USB sans protection. Ceci implique notamment de chiffrer ces documents et de restreindre leur accès. Sans vouloir fermer dès le lendemain du départ un compte d’un visiteur ou d’un ancien collègue, il est aberrant de laisser des comptes ouverts et sans surveillance sur nos systèmes d’information, et ce souvent pendant des années. Vous devez aider vos ASR en signalant les comptes expirés de vos stagiaires.
  • Sécuriser les postes de travail, les serveurs, le réseau et les accès aux locaux. Il faut être conscient qu’un accès physique sur vos ordinateurs permet de s’en rendre maître. Seul un chiffrement intégral permet de limiter ces accès. Un poste non verrouillé est aussi ouvert à tous ! Un poste non mis à jour est également vulnérable. Ce sont les ASR qui gèrent les serveurs et ordinateurs fixes. Cependant vous êtes nombreux à être « administrateurs » de vos portables. Et rares sont ceux qui ont à l’esprit les conséquences potentiellement désastreuses d’une mauvaise gestion de leur poste. L’utilisation d’un réseau non sûr est également problématique. Dans les laboratoires, les ASR appliquent des règles de filtrage. Mais, en dehors, rien ne garantit que personne ne capte les informations qui transitent, par exemple sur le réseau d’un hôtel. Il faut alors utiliser uniquement des communications chiffrées (SSH, IMAPS, HTTPS...)
  • Se tenir informé des pièges les plus grossiers. Vous recevez de nombreux messages, parfois troublants, indiquant par exemple l’utilisation de votre compte mail depuis l’extérieur et vous enjoignant de le vérifier au moyen du lien fourni... lequel est faux et permet au pirate l’obtention du compte et du mot de passe. Les conséquences peuvent être importantes, car ces comptes piratés servent de relais de publicité et d’hameçonnage [1] [2] (« phishing » en anglais). De nombreuses listes noires repèrent ce comportement. Le risque est de voir apparaître dans ces listes votre adresse mail et celles de votre laboratoire, provoquant l’impossibilité de communiquer par mail avec certaines personnes.
  • Surveiller vos équipements personnels. Jusqu’à présent, on parlait d’équipements du laboratoire. Mais vous êtes nombreux à utiliser d’autres moyens informatiques, souvent personnels. Les téléphones portables en sont un bon exemple. Et là vous êtes seuls ! Pas d’ASR pour installer, mettre à jour, surveiller vos équipements. De plus vous les connectez au réseau informatique, vous lisez et modifiez vos documents, vous envoyez des mails... En cas de vol (ou de perte !), il faut prévenir vos ASR pour prendre toutes les mesures conservatoires visant à limiter les conséquences (changement de mot de passe, révocation des accès...).

Vous avez donc bel et bien un rôle important à jouer dans la sécurité du système d’information. Vous devez en prendre conscience. Il faut également faire remonter toute observation de comportement anormal en discutant avec votre correspondant local (CSSI).

Thierry MOUTHUY (CPPM - Chargé de mission SSI IN2P3)

[1] http://www.hoaxbuster.com/hoaxliste...

[2] http://www.ssi.gouv.fr/entreprise/p...

n°35
Novembre
2016
Webinaire RI3 "Retour de CHEP2016", 25 novembre à 9h30

Prévu le 25 novembre prochain à 9h30, l’annonce sera prochainement mise en ligne sur le site web du RI3 et diffusée sur la liste RESEAU-INFO-L.

Journées SUCCES, 23 et 24 novembre - Paris (IPGP)

Dédiées aux utilisateurs des mésocentres et des infrastructures de grilles ou de cloud, les journées SUCCES 2016 sont organisées par les GIS France Grilles et GRID’5000, le Groupe Calcul et le GDR RSD.

Les objectifs de ces rencontres sont de présenter des travaux scientifiques, dans toutes les disciplines, réalisés grâce au soutien des infrastructures de grilles de calcul, de méso-centres ou de cloud.

Elles sont aussi l’occasion de présenter aux utilisateurs l’évolution des outils et infrastructures, via la recherche en informatique associée.

Ces journées associeront exposés pléniers et tables rondes sur des sujets d’actualité.

Ces journées se dérouleront les mercredi 23 et jeudi 24 novembre 2016 à l’Institut de Physique du Globe de Paris.

Les inscriptions sont closes mais vous pouvez suivre l’événement en webcast.

n°35
Novembre
2016
Journal SW&C for Big Science

Comme présenté lors des JI, un journal (électronique) est en cours de création autour de l’informatique utilisée pour produire, traiter ou gérer de grandes masses de données au sein de grandes collaborations scientifiques (ce qu’on appelle les « Big Sciences »). En effet, il n’existe pas actuellement de journal approprié pour publier des articles qui ne sont ni de la physique, ni de la recherche en informatique. Certaines revues acceptent parfois de publier un article sur de tels sujets mais ils sont dispersés. Il n’est donc pas facile de constituer une « archive » bien identifiée qui permette de capitaliser sur les expériences précédentes et d’éviter de réinventer la roue. A contrario, l’existence d’une telle revue permettrait de mieux valoriser les métiers autour de ces enjeux informatiques et de contribuer à une meilleure reconnaissance des carrières de ceux qui s’engagent dans cette voie.

A partir de ce constat, quelques personnes ont lancé l’idée de ce « peer- reviewed » journal « Software and Computing for Big Science » en collaboration avec l’éditeur Springer. En attendant de pouvoir l’intégrer dans une initiative comme SCOAP3 (Sponsoring Consortium for Open Access Publishing in Particle Physics), le journal sera en open access pour les membres des institutions qui soutiennent (financièrement) le journal, ce qui est le cas de l’IN2P3. Concrètement, la structure du journal est en cours de constitution, particulièrement son Editorial Board. Les français y seront représentés puisque Volker Beckmann s’est proposé d’être l’un des 3 rédacteurs en chef (proposition en attente d’approbation par l’administration du CNRS) au côté de Markus Elsing (CERN) et Günter Quast (KIT). Michel Jouvin a aussi été sollicité pour faire partie du Comité de Rédaction. L’objectif est de lancer un appel à des articles avant la fin de l’année avec des premiers articles publiés (après la revue par les « referee ») au printemps.

Si vous avez des envies ou suggestions d’articles ou si vous souhaitez prendre des responsabilités dans ce journal, n’hésitez pas à contacter Volker ou Michel.

Bilan Journées mésocentres, 11-12 octobre - Paris

Les neuvièmes journées méso­centres se sont déroulées à l’Institut Henri Poincaré à Paris les 11 et 12 Octobre. Organisées comme chaque année, depuis 2008, par le groupe Calcul, celles­-ci ont réuni une centaine de participants. Ces journées rassemblent les acteurs régionaux français du High Performance Computing (HPC) dont certains laboratoires de l’IN2P3. Ces journées combinaient des sujets techniques et des sujets sur l’organisation du calcul HPC.

Les sujets techniques abordés recouvraient des derniers développements en terme de réseau local haute performance, de systèmes de fichiers distribué, la distribution de code ou service (déploiement, virtualisation, contenerisation).

GENCI a récemment vu son périmètre étendu aux données massives pour répondre aux besoins de conservation et d’analyse des données massives produites dans les simulations HPC. Au niveau européen, l’organisation PRACE (dont la France est un des pays hôte) a été renouvelée pour trois années. GENCI doit se placer dans le contexte européen mais aussi dans le contexte français du calcul scientifique qui est en pleine évolution. La stratégie du CNRS (comités COCIN et MICADO) a été présentée ainsi que celle du MENESR. Ces dernières années, les demandes de calcul et de data centers ont explosées et les tutelles ont décidé d’une politique de rationalisation de l’offre vers des grands data centers régionaux. C’est une entreprise complexe car regroupant de multiples tutelles et de multiples domaines de la science, de multiples structures (laboratoires, écoles, universités, COMUE, etc...) et l’administration de ESR comme d’autres ministères. Cette politique pourrait impacter le calcul scientifique dans l’IN2P3 et en particulier les sites de calcul pour le LHC.

Les présentations sont disponibles sur le site des journées.

CHEP & HEPiX

CHEP 2016 et HEPiX Fall 2016, les deux conférences organisées conjointement par SLAC et LBNL, ont eu lieu en octobre 2016 à San Fransisco et à Berkeley respectivement.

Les rencontres HEPiX sont organisées au printemps et à l’automne de chaque année. Elles sont devenues un rendez-vous incontournable des Administrateurs Système et Réseaux des laboratoires, centres de calcul et universités du monde HEP, avec une réelle volonté d’ouverture vers d’autres domaines de la Big Science, en passant par les sciences du vivant et la génomique en particulier, ou encore le projet ITER. Le programme est technique et couvre bon nombre de sujets (gestion des clusters et du stockage, technologies réseau et CPU, évolution des services IT, sécurité informatique etc.), avec une session consacrée à des rapports de sites qui favorise les échanges et retours d’expérience. Notez dès à présent que la rencontre HEPiX de printemps 2017 aura lieu en Avril (du 24 au 28) à Budapest, au Centre Wigner qui, associé au CERN, héberge une partie de ses ressources de calcul.

Les conférences Computing in High Energy and Nuclear Physics (CHEP) sont organisées tous les 18 mois et leur portée (programme et audience) est plus large. CHEP met l’accent sur tous les développements informatiques, y compris logiciels, ainsi que les besoins et difficultés des expériences et des utilisateurs des centres de calcul. CHEP et HEPix sont assez complémentaires.

Cette année, les participants français ont accepté de préparer un retour sous forme de webinaire RI3, prévu le 25 novembre prochain à 9h30. L’annonce sera mise en ligne sur le site web du RI3 et diffusée sur la liste RESEAU-INFO-L.