imprimer
n°31
Juillet
2015
Prospective IN2P3 : Le calcul face à une période charnière

Constatant que le calcul scientifique fait face à une période charnière et qu’il reste un domaine soumis à une évolution technologique rapide induisant une pression d’adaptation forte et continue, la direction de l’IN2P3 a souhaité discuter des défis futurs avec les acteurs reconnus de l’informatique à l’IN2P3 .

Cette discussion a pris la forme d’un colloque, réunissant une vingtaine de personnes ; l’objectif étant de dégager des lignes stratégiques à cinq ans afin de rester à la pointe et fournir à nos communautés les services nécessaires pour atteindre nos buts scientifiques.

Ces personnes ont discuté à l‘appui de courtes présentations des thèmes que vous pourrez retrouver dans l’agenda de cette réunion. Ces échanges, sereins et riches, ont fait l’objet d’une synthèse, également disponible en ligne. Nous en résumons ici les grandes lignes.

Le premier constat dressé est que les logiciels utilisés majoritairement dans nos disciplines sont constitués de modules séquentiels et mis en exécution à l’aide de techniques de parallélisme « embarrassant » basées sur la distribution des événements. Ce modèle tend à devenir obsolète et un rapprochement avec les communautés du calcul intensif devient indispensable pour penser la refonte de notre patrimoine logiciel. Ce rapprochement doit être soutenu par l’IN2P3, sous la forme d’actions à (...)

lire la suite

Disparition

Hommage à Jaques COHEN-GANOUNA

Jacques Ganouna aimait à le raconter, alors physicien, il avait eu le choix entre fermer la « calculatrice » de la halle aux vins ou en faire un centre de calcul. C’est Paul Falk-Vairant, directeur adjoint scientifique de l’IN2P3, qui lui avait confié cette mission. La calculatrice ne remplissait plus sa mission pour les chercheurs de notre Institut qui devaient soumettre leurs codes de plus en plus lourds chez IBM, place Vendôme. Jacques Ganouna avait fait un choix, ce n’était pas celui de la facilité ; il fera de la « calculatrice » un des plus grands centres de calcul scientifiques de France, il sera sous la coupole de Jussieu le Patron du CCPN. « Patron », cette appellation plus coutumière du milieu de la médecine que de celui de la physique, lui allait comme un gant ; il le fut incontestablement pendant tout le reste de sa carrière qu’il consacra exclusivement au Centre de Calcul. Sa convivialité, ce côté protecteur pour son personnel dont il avait à cœur d’offrir les meilleures conditions de travail, la meilleure carrière, cette opiniâtreté à vouloir le meilleur centre de calcul de la (...)

lire la suite

Logiciel

Retour sur la genèse de la HEP Software Foundation

Il y a un an, dans cette même lettre, j’avais présenté un processus naissant pour créer une collaboration internationale autour du software HEP. A cette époque, suite à un appel à contributions, il existait 10 « White Papers » exprimant ce que pouvait être cette collaboration. Et j’avais conclu par « il va s’agir à partir de ces contributions initiales de définir le consensus autour duquel peut se construire cette fondation et d’en jeter les bases pratiques ». Aujourd’hui, la HEP Software Collaboration est devenue la HEP Software Foundation (HSF) en référence à l’Apache Foundation. Certes, nous ne sommes pas au bout du chemin mais l’année a été très active ! A l’été 2014, tous les auteurs de « White Papers » et toutes les autres personnes intéressées se sont réunies pour constituer un comité intérimaire, l’iFB (interim Foundation Board) ; suivi par la mise en place en septembre 2014 d’une « startup team », de 6 puis 14 personnes, prêtes à consacrer un peu de leur temps à faire avancer le projet HSF, avec comme objectif premier : l’organisation du workshop de lancement en janvier (...)

lire la suite

Vidéoconférence

Le nouveau paysage de la vidéoconférence

Les systèmes de vidéoconférence à notre disposition font actuellement l’objet d’une mutation technologique qui ne va pas sans perturber sensiblement la stabilité du service que nous avons connue ces dix dernières années. Cet article tente de donner quelques éléments pour, peut-être, mieux vivre cette transition. Un peu d’histoire L’apparition de systèmes de vidéoconférence dans les labos de l’IN2P3 remonte au milieu des années 90. La technologie sous-jacente était alors le RNIS (ISDN en anglo-saxon), et le coût d’une heure de session transatlantique était de 900 F (150 €, en fait beaucoup plus si on tient compte de l’inflation). Au début des années 2000, l’émergence du standard H323 utilisant les réseaux informatiques a eu pour conséquence de faire apparaître le coût de communication comme essentiellement nul pour l’utilisateur final, augmentant ainsi considérablement l’attractivité de la vidéoconférence pour celui-ci. L’IN2P3 a mis en place à cette époque, sous la houlette de Daniel Charnay et Gérard Drevon du CC-IN2P3, un service de « MCU » (un appareil, parfois appelé « (...)

lire la suite

Communauté

Echos de l’édition 2015 des JDEV

Malgré la canicule, l’édition 2015 des JDEV (Journées du DÉVeloppement dans le monde de l’éducation-recherche, organisées par le réseau DEVLOG) a, comme en 2011 à Toulouse et 2013 à Palaiseau, suscité des rencontres riches et variées, permis des découvertes et ouvert de nouvelles perspectives à tous ses participants. Le bataillon IN2P3, fort d’un peu plus d’une vingtaine de membres, y a une nouvelle fois tenu sa place. Toute sa place ? À chaud, nous avons demandé à un échantillon (Jean-René Rouet, CC-IN2P3, Maude Le Jeune, APC, Antoine Pérus, LAL, Jérôme Pansanel, IPHC, et Françoise Virieux, APC) de nous confier les enseignements qu’ils ont tirés de cet évènement (vous avez dit Docker ?). Les enregistrements des sessions plénières et thématiques, tirés de la retransmission en direct assurée par l’équipe Webcast de l’IN2P3, sont disponibles ici. Sessions plénières d’ouverture Sessions plénières de clôture Sessions thématiques Amphi D Sessions thématiques Amphi E Ne manquez pas l’édition 2017 (à Aix-Marseille ?). Qu’est-ce qui t’a décidé(e) à participer aux JDEV2015 ? JRR - (...)

lire la suite

Equipe

Directeur de la publication  : Alain FUCHS.
Responsables éditoriaux : Giovanni LAMANNA et Pierre-Etienne MACCHI.
Comité de rédaction : Frédérique CHOLLET LE FLOUR, Virginie DELEBARRE DUTRUEL, Christian HELFT, Dirk HOFFMANN et Gaëlle SHIFRIN.

Interview

"L’IN2P3 est un partenaire privilégié de LSST"

#TITRE
Dominique Boutigny, responsable du calcul LSST-France

lire l'interview

A noter
VIDYO maintenant accessible par téléphone depuis la France
La France rejoint enfin le club des pays d’où l’on peut accéder à Vidyo par le réseau téléphonique (...)

en savoir plus

Nouvelles listes de diffusion thématiques
La nouvelle liste de diffusion thématique stockage-distribue@groupes.renater.fr est disponible. (...)

en savoir plus

Second Indico Virtual Event
Le deuxième Evénement Virtuel Indico (Second Indico Virtual Event) a réuni une petite vingtaine de (...)

en savoir plus

Agenda
Journées SUCCES, 5 et 6 novembre - IPGP, Paris
Elles vous avaient manqué ?... à nous aussi ! Elles reviennent enfin les 5 et 6 novembre (...)

en savoir plus

Journée JoSy, 13 octobre - LPNHE, Paris
La fédération de réseau RESINFO organise une journée JoSy (Journée Système) sur le thème : "La (...)

en savoir plus

JRES, du 8 au 11 décembre 2015 - Montpellier
Les journées réseaux (JRES 2015) ont lieu tous les deux ans et s’adressent à l’ensemble de la (...)

en savoir plus

Ecole informatique de l’IN2P3 "Les outils de mise en production du logiciel", du 28 septembre au 2 octobre - Lyon
Dernière minute (8 juillet) pour vous inscrire à l’école informatique de l’IN2P3 2015 ! Retrouvez (...)

en savoir plus

ESC15 School (Efficiency in Scientific Computing), du 26 au 31 octobre - Bertinoro, Italie
Pour la célèbre ESC, qui en est à sa 7e édition, les détails sont là : The seventh edition of the (...)

en savoir plus

EGI Community Forum 2015, du 10 au 13 novembre - Bari, Italie
Plus que quelques jours pour déposer vos présentations, posters, démos pour le prochain EGI (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2015 CCIN2P3
n°31
Juillet
2015
Prospective IN2P3 : Le calcul face à une période charnière

Stratégie

Constatant que le calcul scientifique fait face à une période charnière et qu’il reste un domaine soumis à une évolution technologique rapide induisant une pression d’adaptation forte et continue, la direction de l’IN2P3 a souhaité discuter des défis futurs avec les acteurs reconnus de l’informatique à l’IN2P3 .

Cette discussion a pris la forme d’un colloque, réunissant une vingtaine de personnes ; l’objectif étant de dégager des lignes stratégiques à cinq ans afin de rester à la pointe et fournir à nos communautés les services nécessaires pour atteindre nos buts scientifiques.

Ces personnes ont discuté à l‘appui de courtes présentations des thèmes que vous pourrez retrouver dans l’agenda de cette réunion. Ces échanges, sereins et riches, ont fait l’objet d’une synthèse, également disponible en ligne. Nous en résumons ici les grandes lignes.

Le premier constat dressé est que les logiciels utilisés majoritairement dans nos disciplines sont constitués de modules séquentiels et mis en exécution à l’aide de techniques de parallélisme « embarrassant » basées sur la distribution des événements. Ce modèle tend à devenir obsolète et un rapprochement avec les communautés du calcul intensif devient indispensable pour penser la refonte de notre patrimoine logiciel. Ce rapprochement doit être soutenu par l’IN2P3, sous la forme d’actions à discuter notamment avec le réseau des informaticiens.

Concernant le traitement des grandes masses de données spécifiques à nos projets scientifiques, l’IN2P3 possède un savoir-faire incontestable. Le « Big Data », buzz-word du moment, ne doit pas occulter les enjeux liés aux problématiques d’accès aux données des futures usines à données que seront le HL_LHC et les expériences d’astro/cosmo. A cet égard, les thèmes de recherche des deux chercheurs en informatique de l’IN2P3 sont des voies prometteuses pour le traitement de ces données. La consolidation ou l’élargissement de leur activité à l’aide de recrutements apparaît comme une nécessité.

Ces activités aux frontières entre « Domain Scientists » et « Data Scientists » gagneraient à être renforcées par la mise en place de projets communs entre ces deux communautés de recherche auxquels le vivier de compétences des ingénieurs de l’Institut pourrait contribuer.

Concernant les infrastructures existantes, l’IN2P3 et l’Irfu ont développé une grande expertise dans les opérations de la grille avec un réseau T1/T2-LCG performant. Dans le contexte budgétaire actuel, il est important d’identifier des pistes d’optimisation des coûts d’exploitation de ces centres. La technologie innovante du Cloud est privilégiée par les investisseurs et les nouvelles communautés. Son usage n’est toutefois pas plus facile que la grille et un effort conjoint entre développeurs et administrateurs système et réseau doit être entrepris afin de fournir à nos utilisateurs des interfaces adaptées. Ce but peut être atteint en renforçant la synergie entre les sites T2-LCG et le CC.

Il est également reconnu que le RI3 à un rôle à jouer dans cette organisation, notamment en faveur de la professionnalisation du développement logiciel, en favorisant et suivant l’émergence de projets collaboratifs entre laboratoires. Il se doit également d’interagir avec le directeur du CC, le chargé de mission à l’informatique et le DAS chargé du calcul.

Sur le plan international, les discussions menées sont clairement en faveur de la création d’un comité de pilotage chargé d’analyser les opportunités et de définir la stratégie de participation de l’IN2P3 aux réponses aux appels à projets européens dans le domaine des e-infrastructures.

Enfin, il est rappelé que l’informatique de l’IN2P3, qui prend en compte les dimensions calcul et données et qui a montré qu’elle est transposable à d’autres communautés, est la seule en France qui soit pilotée par des besoins scientifiques. Paradoxalement, elle s’en trouve isolée auprès des décideurs. Elle doit ainsi jouer la carte de la complémentarité avec le monde du HPC et de la recherche en informatique.

Les participants à ce colloque émettent de ces constats les recommandations suivantes.

  • Créer un comité de pilotage chargé d’analyser les opportunités et de définir la stratégie de participation de l’IN2P3 aux appels à projets européens ou nationaux
  • Développer, en collaboration avec les autres instituts du CNRS et notamment l’INS2I, les synergies entre « Computer Scientists » et « Domain Scientists » en renforçant les équipes travaillant sur ces thématiques et en assurant leur reconnaissance
  • Faire du défi du parallélisme et de la vectorisation des logiciels une priorité
  • Garantir le positionnement de l’informatique de l’IN2P3 vis-à-vis des tutelles en nouant des relations avec le HPC et la recherche en informatique
  • Encourager l’usage des plateformes et solutions communes afin de dégager des ressources dans le but de mettre en œuvre des applicatifs facilitant l’usage de nos infrastructures
  • Promouvoir les initiatives internationales (HSF, RDA) auprès de nos communautés et collaborations

Catherine BISCARAT, David CHAMONT, Frédérique CHOLLET LE FLOUR, Pierre-Etienne MACCHI

n°31
Juillet
2015
"L’IN2P3 est un partenaire privilégié de LSST"

Dominique Boutigny, responsable du calcul LSST-France

- Qu’est-ce que le projet LSST ?

Le projet LSST (Large Synoptic Survey Telescope) va consister à effectuer un relevé aussi précis et étendu que possible des objets célestes du ciel austral à l’aide d’un télescope terrestre disposant d’un miroir de plus de 8m de diamètre et d’une caméra à très grand champ (3.2 milliards de pixels). Ce relevé va s’effectuer sur une période de 10 ans à partir de 2022 et avec une cadence extrêmement rapide, de façon à pouvoir ré-observer régulièrement les mêmes portions du ciel. Au cours des 10 ans du projet, c’est donc un véritable film que l’on réalise permettant de repérer et de mesurer des phénomènes transitoires tels que l’explosion de supernovæ et de détecter des objets de plus en plus faibles en accumulant les images des mêmes régions.

Les débouchés scientifiques du LSST sont multiples : ils couvrent aussi bien l’étude de corps célestes proches comme les astéroïdes géocroiseurs que celle des objets les plus lointains de l’univers comme les supernovae ou les quasars. Les équipes de l’IN2P3 s’intéressent, quant à elles, aux mesures des paramètres cosmologiques, notamment l’énergie noire qui tend à accélérer l’expansion de l’univers et dont la nature échappe encore à notre compréhension.

En raison de son implication forte dès la genèse du projet, l’IN2P3 est un partenaire privilégié de LSST qui, outre la préparation de la science, intervient au niveau de la construction de la caméra (capteurs CCD, électronique, système de changeur de filtre et logiciels de contrôle) et du traitement des données. Au mois de mars dernier, deux accords ont été signés par le projet et la direction de l’IN2P3 afin de formaliser ces engagements techniques. En retour, la France dispose de droits d’accès aux données qui permettent à toute notre communauté d’exploiter scientifiquement ce fantastique instrument.

- Quel est le rôle du CC-IN2P3 dans le projet ?

L’un des deux accords signés en mars formalise une collaboration entre le CC-IN2P3 et le National Center for Supercomputing Application (NCSA) pour la production des catalogues de LSST. Chaque centre traitera 50% des données qui seront ensuite échangées afin de disposer de deux jeux complets de données en France et aux États-Unis auxquels s’ajoutera une troisième copie au Chili près du site du télescope.

Chaque nuit, ce sont 15 To de données brutes qui seront acquises par l’instrument. Au bout de 10 ans, l’ensemble des traitements logiciels aura produit 500 Po et les catalogues exploitables pour la science seront indexés dans une base de données distribuée contenant des dizaines de milliers de milliards d’entrées. Au-delà de la volumétrie, qui est certes importante mais pas démesurée vu les échelles de temps considérées, c’est bien la complexité de l’indexation et les performances en termes de taux d’entrées/sorties qui placent sans conteste ce projet dans la catégorie "big data". Les chercheurs en informatique ne s’y sont d’ailleurs pas trompés puisque LSST sert de cas d’utilisation pour le projet pluridisciplinaire PetaSky soutenu par le CNRS dans le cadre du défi "Grandes masses de données scientifiques" MASTODONS.

- De quelles ressources dispose le CC-IN2P3 pour ce projet ?

Outre les ressources mutualisées du CC-IN2P3, LSST bénéficie d’un cluster dédié de 50 machines disposant de 400 To de stockage utilisable, mis à disposition par la société DELL dans le cadre d’un accord de partenariat avec le Centre de Calcul. Ces machines constituent une plateforme de test pour le système de base de données distribué Qserv développé au SLAC pour LSST. L’idée est de pouvoir tester en vraie grandeur cet élément clé du projet en s’assurant qu’il peut passer à l’échelle et garantir des temps de réponse acceptables sur des requêtes SQL complexes correspondant aux besoins scientifiques.

Par ailleurs, plusieurs activités se développent au Centre de Calcul pour mettre en place des outils modernes de distribution du code, tester de nouveaux systèmes issus des technologies du cloud computing et développer des outils de traçage des entrées/sorties associés aux logiciels de traitement des images.

Enfin, le CC-IN2P3 s’organise aussi au niveau humain de façon à mettre en place toute l’organisation nécessaire à la réussite de cet ambitieux projet. C’est notamment Fabio Hernandez, assisté d’Yvan Calas, qui est chargé du pilotage du projet au Centre de Calcul.

- La prochaine étape ?

Après une première réunion très productive avec le NCSA, il faut maintenant démarrer le travail conjoint entre les deux centres pour définir un plan de travail aussi précis que possible en vue d’arriver à la mise en place du système de production distribué sur les deux sites. Cela passera forcément par une phase de R&D afin d’évaluer les diverses options qui se présenteront. Gageons que ceci aura un impact plus large que le projet LSST et rejaillira sur la qualité de l’ensemble des services proposés par le CC-IN2P3.

Le travail de validation des logiciels de LSST est également un sujet très important qui est en train se développer ; il consiste à soumettre les algorithmes existants à l’épreuve des données de projets précurseurs tels que le CFHT-LS ou Suprime-Cam et à en développer de nouveaux. Avec cette activité, c’est réellement le pont entre la science et l’informatique de LSST qui est en train de se construire.

Propos reccueillis par Gaëlle SHIFRIN

n°31
Juillet
2015
Hommage à Jaques COHEN-GANOUNA

Jacques Ganouna aimait à le raconter, alors physicien, il avait eu le choix entre fermer la « calculatrice » de la halle aux vins ou en faire un centre de calcul. C’est Paul Falk-Vairant, directeur adjoint scientifique de l’IN2P3, qui lui avait confié cette mission. La calculatrice ne remplissait plus sa mission pour les chercheurs de notre Institut qui devaient soumettre leurs codes de plus en plus lourds chez IBM, place Vendôme. Jacques Ganouna avait fait un choix, ce n’était pas celui de la facilité ; il fera de la « calculatrice » un des plus grands centres de calcul scientifiques de France, il sera sous la coupole de Jussieu le Patron du CCPN.

« Patron », cette appellation plus coutumière du milieu de la médecine que de celui de la physique, lui allait comme un gant ; il le fut incontestablement pendant tout le reste de sa carrière qu’il consacra exclusivement au Centre de Calcul. Sa convivialité, ce côté protecteur pour son personnel dont il avait à cœur d’offrir les meilleures conditions de travail, la meilleure carrière, cette opiniâtreté à vouloir le meilleur centre de calcul de la discipline en a fait un directeur légendaire, attachant, mémorable. C’est lors d’un recrutement, alors que le terme geek n’existait sans doute pas encore, que je l’ai entendu caractériser ainsi un candidat : « Celui-là, il a un sacré CPU mais côté entrées-sorties c’est pas terrible ! », preuve que pour lui le côté humain et relationnel était des plus importants.

Le Centre de Calcul, Jacques Ganouna l’a créé deux fois, une fois à Paris, une seconde fois à Lyon. L’aventure lyonnaise débute avec la construction d’un bâtiment dont il réglera avec un soin méticuleux les moindres détails. C’était un perfectionniste ; pour lui, l’environnement devait être à la hauteur des machines qu’il hébergeait, c’est-à-dire exceptionnel ! Vingt-quatre heures sur vingt-quatre, sept jours sur sept, trois cent soixante-cinq jours par an, c’était sa devise. Le moindre « plantage » du système était presque vécu comme un drame et, dans ces moments-là, il aimait venir en salle machine soutenir les ingénieurs. Les week-ends de déménagement ou de changement de configuration, l’interruption de service devait toujours être minimale, on pouvait voir le patron, exceptionnellement sans cravate, s’assurer que le planning serait respecté et que l’on redémarrerait de préférence… avant l’heure prévue !

Alors que sa carrière s’achevait, il vécut une profonde révolution technologique avec le passage d’un système centralisé vers des fermes sous Linux. Jacques Ganouna savait s’adapter, de la CDC 6600 sous la coupole de Jussieu au dernier grand mainframe à La Doua, l’IBM 3090, il avait dû aussi intégrer le réseau privé de l’IN2P3 dans Renater et dans l’Internet dans les meilleures conditions. Il ne craignait pas les mutations technologiques, ses intuitions furent souvent les bonnes, en ce sens il était resté un chercheur.

Cette excellence qu’il a voulue pour le CC-IN2P3, il en a apprécié la continuité lors de l’inauguration de la nouvelle salle machine. « J’ai du mal à me reconnaître, m’a-t-il confié, mais là, c’est encore un cran au-dessus ! » Il y avait de l’admiration dans sa voix, ce fut son dernier passage au CC.

Sur ton cloud, repose en paix Patron !

Daniel CHARNAY

n°31
Juillet
2015
Retour sur la genèse de la HEP Software Foundation

Il y a un an, dans cette même lettre, j’avais présenté un processus naissant pour créer une collaboration internationale autour du software HEP. A cette époque, suite à un appel à contributions, il existait 10 « White Papers » exprimant ce que pouvait être cette collaboration. Et j’avais conclu par « il va s’agir à partir de ces contributions initiales de définir le consensus autour duquel peut se construire cette fondation et d’en jeter les bases pratiques ». Aujourd’hui, la HEP Software Collaboration est devenue la HEP Software Foundation (HSF) en référence à l’Apache Foundation. Certes, nous ne sommes pas au bout du chemin mais l’année a été très active !

A l’été 2014, tous les auteurs de « White Papers » et toutes les autres personnes intéressées se sont réunies pour constituer un comité intérimaire, l’iFB (interim Foundation Board) ; suivi par la mise en place en septembre 2014 d’une « startup team », de 6 puis 14 personnes, prêtes à consacrer un peu de leur temps à faire avancer le projet HSF, avec comme objectif premier : l’organisation du workshop de lancement en janvier 2015 à SLAC. Depuis, cette « startup team » se réunit toutes les semaines et rend compte des progrès à l’iFB tous les mois ! L’équipe a consacré beaucoup d’énergie à rencontrer les expériences, différents groupes et communautés, pour expliquer le projet, lever les malentendus et craintes que HSF ne soit qu’une nouvelle tentative d’hégémonie de la part du CERN ou de tout autre acteur sur les développements logiciels HEP.

Le workshop de SLAC qui a réuni 100 personnes pendant deux jours, a été une étape importante (cf. notes des discussions). Cette rencontre a permis d’affiner la définition du rôle de HSF et d’identifier les activités concrètes qui pourraient être mises en œuvre à court terme avec les moyens disponibles. Le consensus initial autour d’une structure légère fédérant des projets qui restaient autonomes suivant une approche bottom-up a été réaffirmé. Mais surtout trois personnes associées à des initiatives relativement similaires dans le domaine de l’open source (B. Behlendorf de Apache Software Foundation, Dan Katz de l’Univ. de Chicago, N.C. Hong du Sustainable Software Institute) avaient été invitées dans une session « Learning from Others » et ont unanimement confirmé que c’était la seule approche possible pour une collaboration durable.

HSF : un consensus pour une structure légère autour de projets autonomes, type « open source »

Les maitres mots sont « try-and-fail », « do-cracy », « darwinism », « transparency » qui se traduisent dans les faits par :
- l’importance de ne pas surdéfinir HSF mais de mettre en place des activités concrètes, en prenant le risque d’échouer, et d’analyser les résultats décevants ou les échecs ;
- des orientations et des décisions prises par ceux qui participent activement, pas au nom d’une appartenance ou d’un pouvoir institutionnel ;
- l’absence de planification des projets qui doivent naitre ou d’évaluation des projets qui doivent s’arrêter : laisser la communauté décider par l’adoption ou non des nouveaux projets et des nouvelles idées. Le rôle de HSF est de donner de la visibilité aux nouvelles idées (incubateur) afin que le darwinisme puisse s’exercer dans de bonnes conditions ;
- la transparence des actions et des décisions comme antidote aux peurs et soupçons de prise de pouvoir.

Si vous êtes intéressé par HSF, le principal point d’information est le site web http://www.hepsoftwarefoundation.org. Plusieurs activités ont été initiées pour construire cette collaboration durable et améliorer le potentiel de la communauté pour répondre aux défis de l’avenir.

- Training : Dans un premier temps, il a été décidé de recenser toutes les formations de qualité existantes sur des sujets pertinents pour les logiciels de la communauté et de mettre en place un portail permettant d’y accéder rapidement, avec un accent particulier sur le matériel en ligne.
- Software Packaging : Le but de HSF étant de permettre de réutiliser l’existant, un groupe a été chargé de définir un moyen permettant d’importer/intégrer un logiciel dans un autre, même si leurs outils de construction sont différents. Il ne s’agit en aucun cas de définir un nouvel outil de configuration qui s’imposerait à tous les projets HSF. Les containers pourraient être une partie de la réponse.
- Software Licensing : Réutiliser un logiciel suppose de respecter sa licence. Mais les différents logiciels de la communauté n’ont pas toujours des licences compatibles et beaucoup n’en ont tout simplement pas. Il s’agit de produire des recommandations pour les projets qui en souhaitent mais là encore pas d’imposer une licence unique.
- Software Project Support : Il s’agit de préciser ce que peut signifier concrètement la notion d’incubateur avec des projets qui accepteraient d’être des cobayes, définir différents types d’association entre des projets et HSF, fournir des modèles pour des nouveaux projets.
- Development Tools and Services : Il ne s’agit pas d’offrir des infrastructures d’hébergement (la recommandation étant d’utiliser GitHub) mais de donner accès à des outils ou des infrastructures disponibles dans certains laboratoires de la communauté comme le CERN ou FNAL.
- Communication and Information Exchange : Les deux principales actions concrètes sont la Software Knowledge Base qui répertorie les logiciels de la communauté et leur utilisation et les Technical Notes, des retours d’expériences faisant l’objet d’un minimum de « peer review ».

Les premières réalisations sont encore modestes. La « fatigue » (surtout la concurrence des multiples autres responsabilités) se fait un peu sentir chez les « fondateurs ». Mais la Software Knowledge Base existe, les premières Technical Notes sont imminentes, le portail « Training » est en bonne voie et plusieurs projets ont exprimé leur intérêt pour être des cobayes.

Le site est mis à jour très régulièrement, particulièrement les onglets « Events » et « Activities ». Si vous êtes développeur d’un logiciel, il suffit de demander un compte pour pouvoir l’ajouter à la Software Knowledge Base. Toutes les discussions autour des activités ont lieu via des mailing lists décrites dans l’onglet « Get Involved » : la liste principale de HSF (hep-sf-forum), peu verbeuse, et la liste (hep-sw-comp), en cours de constitution, de toutes les personnes impliquées dans le développement logiciel et plus largement l’informatique de nos communautés, à laquelle chaque informaticien de l’IN2P3 est invité à s’inscrire.

Un sigle à retenir : HSF

HSF pour HEP Software Foundation est né des besoins de la communauté HEP (de physique des particules), à cause des défis posés par la prochaine génération d’expériences (HL-LHC, Belle2, « Intensity Frontier experiments ») dites de haute luminosité, haute énergie, ou encore de haute intensité pour la physique des neutrinos. Pour répondre à ce défi, il est apparu nécessaire de construire une vraie collaboration allant au-delà des enjeux immédiats et au-delà du seul domaine de la physique des particules. Cette collaboration se veut ouverte à toutes les communautés qui partagent du logiciel ou des défis techniques avec le monde HEP, particulièrement la physique nucléaire et les astro-particules. Dans cette perspective, l’IN2P3 qui regroupe toutes ces communautés à un rôle particulier à jouer pour établir le contact autour du projet HSF.

Michel JOUVIN (LAL)

n°31
Juillet
2015
Le nouveau paysage de la vidéoconférence

Les systèmes de vidéoconférence à notre disposition font actuellement l’objet d’une mutation technologique qui ne va pas sans perturber sensiblement la stabilité du service que nous avons connue ces dix dernières années. Cet article tente de donner quelques éléments pour, peut-être, mieux vivre cette transition.

Un peu d’histoire

L’apparition de systèmes de vidéoconférence dans les labos de l’IN2P3 remonte au milieu des années 90. La technologie sous-jacente était alors le RNIS (ISDN en anglo-saxon), et le coût d’une heure de session transatlantique était de 900 F (150 €, en fait beaucoup plus si on tient compte de l’inflation). Au début des années 2000, l’émergence du standard H323 utilisant les réseaux informatiques a eu pour conséquence de faire apparaître le coût de communication comme essentiellement nul pour l’utilisateur final, augmentant ainsi considérablement l’attractivité de la vidéoconférence pour celui-ci. L’IN2P3 a mis en place à cette époque, sous la houlette de Daniel Charnay et Gérard Drevon du CC-IN2P3, un service de « MCU » (un appareil, parfois appelé « pont », qui recueille et redistribue les flux audio et vidéo de tous les participants d’une vidéoconférence), baptisé RMS. Sa déclinaison H323 basée sur du matériel Codian a connu un succès remarquable, finalement au bénéfice de l’ensemble de la communauté enseignement supérieur-recherche en France. Ce service a été repris il y a quelques années par Renater, qui l’a encore développé notamment par l’ajout de nouveaux MCUs (Scopia).

L’avènement du desktop conferencing

Les ponts H323 évoqués dans le paragraphe précédent sont majoritairement utilisés en liaison avec des systèmes clients dits « de salle », c’est-à-dire des systèmes fixes dédiés, dotés d’équipements audio-vidéo adaptés à une utilisation par plusieurs personnes simultanément en mode « mains libres » (sans casque/micro). Mais la disponibilité de clients H323 logiciels tournant sur des ordinateurs personnels de mieux en mieux équipés en standard avec caméra et micro intégrés de bonne qualité a permis d’envisager une réponse à une demande forte des utilisateurs de participer individuellement en restant dans leur bureau, ou chez eux, aux vidéoconférences. Le système VRVS, devenu EVO puis SeeVogh, né et développé initialement au sein de notre communauté, a été précurseur de ce « desktop conferencing », parfois aussi appelé « cloud conferencing », ne demandant comme poste utilisateur qu’un poste de travail standard dans notre environnement (mais récent). Un facteur de confusion pour l’utilisateur a été apporté par le fait que les constructeurs de MCU ont chacun développé des clients « desktop » qui, n’étant pas au standard H323, ne permettent de se connecter qu’à un seul type de MCU (voir l’illustration).

Les nouveaux acteurs

Voici quelques informations sur les systèmes non H323 dignes d’intérêt pour nous. Ont volontairement été oubliées quelques alternatives, comme Skype, probablement revenu en odeur de sainteté depuis son rachat par Microsoft, surtout sous sa déclinaison Skype Entreprise, ou autres Hangouts de Google. Mais il y en a beaucoup d’autres. Il faudrait aussi mentionner les systèmes dits de Web conferencing (audio via internet ou téléphone + partage de présentations via un navigateur), qui peuvent se révéler pertinents pour des groupes qui se connaissent bien entre eux.

Vidyo

Le CERN, après un long pari sur VRVS/EVO qui aboutissait trop souvent à une frustration des utilisateurs, a décidé il y a quelques années de faire un appel d’offres à l’industrie pour fournir clés en main un système répondant à un cahier des charges particulièrement exigeant (notamment support de Linux, réunions à plusieurs centaines de participants). Le système finalement retenu, Vidyo, après une période de rodage, est maintenant très robuste, très universel et très facile à utiliser, surtout couplé à Indico. Le principal obstacle à son utilisation systématique à l’IN2P3 est qu’il est réservé pour l’instant aux expériences CERN.

Dernière minute : Vidyo est maintenant accessible par téléphone depuis la France.

Jitsi

À côté de son offre MCUs H323, et quelque part en remplacement de SeeVogh (devenu commercial), Renater a ouvert récemment un nouveau service, Rendez-Vous, basé sur le produit libre Jitsi. Ce système est extrêmement prometteur, en particulier du fait qu’il est lui-même basé sur la technologie WebRTC, standard W3C, qui devrait être incorporée en standard dans tous les navigateurs Web dans un relativement proche avenir, supprimant de fait la nécessité d’installer un client sur son poste de travail. Actuellement, il suffit d’un navigateur Chrome sur une machine équipée d’un micro et une caméra pour obtenir un client Rendez-Vous fonctionnel, y compris sous Linux.

Zoom.us

ESnet, le réseau américain disons équivalent à notre Renater, a longtemps offert un service de réunion à distance, ECS, basé sur des MCUs Codian. Il a arrêté ce service [1] l’année dernière [2], laissant les expériences et les labos américains « libres de leur choix » (comprenez se débrouiller tout seuls). Une enquête récente du groupe de travail VCWG qui regroupe ces labos et quelques acteurs européens (CERN, DESY, IN2P3) a mis en lumière l’intérêt général pour un système récemment apparu sur le marché, zoom.us. Il existe une version gratuite de zoom.us, mais je dois dire que j’ai été régulièrement déçu par son utilisation en particulier dans de mauvaises conditions réseau. Par contre, la version professionnelle, que j’ai eu l’occasion d’utiliser lors d’une réunion à plus de 18 participants, est impressionnante, et apporte à mon avis la stabilité des MCUs au monde du cloud conferencing, associée à une ergonomie sans failles. Un petit exemple de réunion à 4 participants (avec la version gratuite, mais dans de très bonnes conditions réseau), est disponible (pérennité du lien non garantie) ici.

Très bien, mais que dois-je en pratique utiliser aujourd’hui ?

Il ne suffit pas qu’une technologie, fût-elle superbe, existe pour fournir un service de vidéoconférence réellement utile au sein de notre communauté. Pour mériter ce qualificatif, ce service doit être :

  • disponible sur les trois plateformes de nos postes de travail Windows, OSX et Linux (et, pour l’instant de façon moins indispensable, iOS et Android),
  • accessible à partir des salles de vidéoconférence, actuellement majoritairement équipées en H323, et par téléphone,
  • facile d’accès et d’utilisation,
  • fonctionnel : capable de présenter une fenêtre de l’écran d’un participant à tous les autres, de fournir un système de chat entre les participants, et un espace de travail partagé,
  • et, last but not least, fiable et stable. Inutile de préciser qu’un système optimum sur toutes ces caractéristiques et économiquement viable pour notre communauté n’existe pas, sinon vous le sauriez et cet article n’aurait pas lieu d’être.

Tentons de caractériser quelques cas d’utilisation :

  • la première réunion relativement formalisée d’un projet qui démarre : Renavisio avec un Scopia. Tant pis pour les gens qui n’ont accès qu’à un poste de travail Linux (rares parmi les tutelles). Vérifier à l’avance la configuration des postes de travail individuels, et faire des tests préalables avec les « vieux » systèmes de salle qui marchaient si bien avec les Codians, mais peut-être plus avec des systèmes plus modernes. Le client iPad vaut le coup d’œil.
  • un groupe de travail au sein d’une expérience CERN : Vidyo, sans nuances
  • un groupe de travail avec des gens prêts à essuyer des plâtres mais plutôt geeks enthousiastes (et pas trop nombreux) : Rendez-Vous. Éviter les liaisons douteuses (à la maison par exemple)
  • une « visiophonie » point à point (téléphone augmenté) : Rendez-Vous (mais Skype est un concurrent redoutable pour ce cas de figure).

Voilà. Happy videoconferencing !

Pour en savoir plus :
Vidyo au Cern
WebRTC, JItsi
Renater : Renavisio, Rendez-Vous

Christian HELFT (LAL)

[1] Plus précisément, il n’a gardé que ReadyTalk, un système de Web conferencing

[2] L’abandon du H323 par ESNet, si en plus on le rapproche du refus historique du CERN d’offrir un service global basé sur des MCUs, nous envoie un message sur l’avenir de cette technologie, qui est peut-être à la vidéoconférence ce qu’est le fax à l’envoi de documents imprimés ?

n°31
Juillet
2015
Echos de l’édition 2015 des JDEV

Malgré la canicule, l’édition 2015 des JDEV (Journées du DÉVeloppement dans le monde de l’éducation-recherche, organisées par le réseau DEVLOG) a, comme en 2011 à Toulouse et 2013 à Palaiseau, suscité des rencontres riches et variées, permis des découvertes et ouvert de nouvelles perspectives à tous ses participants. Le bataillon IN2P3, fort d’un peu plus d’une vingtaine de membres, y a une nouvelle fois tenu sa place. Toute sa place ? À chaud, nous avons demandé à un échantillon (Jean-René Rouet, CC-IN2P3, Maude Le Jeune, APC, Antoine Pérus, LAL, Jérôme Pansanel, IPHC, et Françoise Virieux, APC) de nous confier les enseignements qu’ils ont tirés de cet évènement (vous avez dit Docker ?).

Les enregistrements des sessions plénières et thématiques, tirés de la retransmission en direct assurée par l’équipe Webcast de l’IN2P3, sont disponibles ici.

Ne manquez pas l’édition 2017 (à Aix-Marseille ?).


Qu’est-ce qui t’a décidé(e) à participer aux JDEV2015 ?

JRR - Intérêt général de principe, puis l’on m’a demandé de présenter quelque chose.

MLJ - Le programme, qui varie beaucoup à chaque édition, et la densité d’ateliers, qui permet de ne pas s’ennuyer une minute.

AP - Ayant participé avec intérêt aux deux premières sessions (Toulouse-2011 et X-2013), j’avais un a priori favorable et il y avait également plusieurs thèmes annoncés au centre de mes préoccupations de travail.

JP - J’ai été invité à participer à la thématique sur le Cloud.

FV - Le sens du devoir ! Quand j’étais ASR, je n’ai pas raté une seule édition des JRES, maintenant que je suis passée du côté DEV, j’ai bien l’intention d’assister à toutes les JDEV tant que ça dure ! L’apport va bien au-delà des connaissances qu’on acquiert : c’est une manière de constituer, faire vivre son réseau professionnel personnel. Et c’est une ouverture sur d’autres domaines : j’ai par exemple beaucoup discuté avec des collègues des Sciences Humaines sur leur problème d’archivage, leurs problèmes sont intéressants et pas forcément orthogonaux aux nôtres.


S’il n’y a qu’une seule présentation disponible sur webcast.in2p3.fr que tu conseillerais, ce serait laquelle ?

JRR - Docker

MLJ - T4 P1 : Présentation du philosophe François Elie sur les transferts marchands et non marchands. A voir absolument, même si le son n’est pas tout à fait au point. La description faite par la T4 ne ment pas, cette présentation donne énormément de perspectives sur le sujet du logiciel libre. (BTW, l’importance de la description des présentations et des ateliers sur le wiki est peut-être trop souvent sous-estimée)

AP - Je ne sais pas… j’aurais tendance à aller piocher parmi toutes celles que je n’ai pas suivies en direct. Je pourrai peut-être mieux répondre à la rentrée !

JP - La présentation de François Elie. C’est une excellente introduction au thème du marchand/non-marchand. Cette partie T4 transfert marchand/non marchand est très intéressante. Il y a trop de codes produits dans les labos qui restent dans ces labos. Ils n’ont pas de licence, de copyright, ... bref une gestion des droits calamiteuse (en particulier si on souhaite diffuser son code). Ce serait pas mal de rejouer quelques-unes de ces conférences dans les labos.

FV - Comme je fais du contrôle-commande, j’ai été aux présentations du thème T1 : systèmes embarqués. Je conseille sur ce thème la présentation d’une approche intéressante avec SYSML pour l’étude et le logiciel SCADE pour le développement d’un logiciel pour un système embarqué critique. (Aéronautique).


Qu’as-tu appris de plus significatif, au point de vue de l’impact sur tes propres activités, au cours de ces JDEV ?

JRR - Neo4J graph database ; Docker.

MLJ - Quelques technologies liées au big data, d’un point de vue pratique lors d’un atelier. Un démarrage ultra rapide pour aller à l’essentiel, c’est inestimable.

AP - Pour un développeur intéressé par les pratiques DevOps, la containérisation est devenue mature et incontournable ; j’ai, comme beaucoup d’autres, été impressionné par les prestations de Jérome Petazzoni ;-) (présentation et atelier) ; si l’intégration continue est quelque chose de plus en plus effectivement pratiqué, le déploiement à la DevOps est encore balbutiant et très largement dépendant du contexte professionnel.

JP - Un engouement impressionnant pour Docker. Les conférences Docker ont battu tous les scores d’audience. Du coup, nous allons étudier sérieusement la mise en place d’un service à la demande Docker sur le Cloud de l’IPHC.

FV - Que Docker c’est très bien pour des applications web mais pas forcément utilisable pour notre projet. Et si j’avais à développer un logiciel pour un système embarqué critique, je regarderais plus attentivement LUSTRE et SCADE.


Qu’as-tu appris de plus significatif, au point de vue de l’impact sur l’évolution de l’informatique à l’IN2P3, au cours de ces JDEV ?

JRR - Docker

MLJ - Une introduction à la mouvance Devops, que je ne connaissais pas du tout avant les JDEV, et qui force à revoir le découpage dev et asr de nos labos.

AP - J’aurais envie de souligner qu’il se passe des choses en dehors de l’IN2P3, dans des universités et des labos aux thématiques très éloignées des nôtres, mais avec qui on peut croiser les expériences en termes de technologies de développement en particulier…

JP - Je ne suis pas resté assez longtemps pour avoir une vue globale de l’événement. En catch-up, j’ai vu les présentations de Jérôme Petazzoni (T6 P4 et T6 P5). Elles sont vraiment d’excellentes introductions à Docker et détaillent comment l’utiliser concrètement au quotidien.

FV - Le rapprochement des activités ASR (oh pardon OPS !) et DEV.


Comment qualifierais-tu cette édition par rapport aux éditions précédentes ?

JRR - Un tout petit moins intéressante

MLJ - Un peu pompeuse (surtout dans les séances plénières).

AP - Je dirais : aussi intéressante que les précédentes par la diversité des thèmes et des rencontres et discussions rendues possibles … !

JP - C’est ma première fois…

FV - Bien organisée. Bon rapport entre présentations et ateliers.


La participation de l’IN2P3 à cet évènement te semble-t-elle trop faible, adéquate, trop importante ?

JRR - un peu faible (en particulier pour le CC-IN2P3)

MLJ - Adéquate

AP - Les labos étaient un peu inégalement représentés ; pour autant, je crois que l’IN2P3 était visible… dans les discussions, le CC-IN2P3 est quand même souvent cité !

JP - Il me semble que l’IN2P3 n’était pas assez représenté, en particulier dans le T3 (Big Data) et le T8 (Calcul). Ce sont des thématiques où nous avons des personnes très impliquées dans les développements, mais probablement pas assez visibles.

FV - Adéquate


Et pour finir, le vécu de Jean-René, à consommer sans modération pour orienter notre veille technologique :

« Je suis entré direct dans le dur avec un atelier AngularJS, qui m’a permis de voir les possibilités de ce framework JavaScript à la mode, il m’a juste manqué un peu d’introduction. L’après-midi, je dois dire que seule la présentation sur le langage Hop, le Graal d’un langage unique pour programmer le web, m’a intéressé. La matinée du mercredi matin était pour moi concentrée sur BigData, NoSQL. Je n’ai pas appris grand-chose de nouveau sauf pour Neo4J, qui m’a vraiment plu. Du coup, l’après-midi, j’ai suivi le TP Neo4J pour appréhender le langage d’interrogation Cypher, qui est très puissant et super simple syntaxiquement. Je ne parle pas de la session du jeudi matin où j’étais présent en tant qu’intervenant, mais je vous conseille la présentation de Thierry Chatel sur JavaScript pour vous faire une vraie idée de ce langage. L’après-midi, j’ai suivi le TP : « Docker et orchestration » de Jérôme Petazzoni. Et c’était du haut vol, l’intervenant et le contenu pédagogique étaient juste parfaits. Ça y est, je suis convaincu et Docker sera mon outil de déploiement au CC-IN2P3. Le vendredi matin, les présentations étaient toutes intéressantes, surtout celles où l’on a appris que Javacript était un des rares langages avec une spécification et que donc l’on pouvait prouver son implémentation avec COQ. Les sessions conseillées ci-dessus sont disponibles sur webcast.in2p3.fr. »

Propos reccueillis par Christian HELFT

n°31
Juillet
2015
Journées SUCCES, 5 et 6 novembre - IPGP, Paris

Elles vous avaient manqué ?... à nous aussi !

Elles reviennent enfin les 5 et 6 novembre prochains, organisées par les GIS France Grilles et GRID’5000, le Groupe Calcul et le GDR ASR, à l’Institut de Physique du Globe de Paris :

Les journées SUCCES 2015 !

Réservez donc la date pour y participer avec nous.

Retrouvez toutes les informations sur le site web des journées SUCCES.

Venez nombreux faire vivre la science au cœur de la capitale !

Journée JoSy, 13 octobre - LPNHE, Paris

La fédération de réseau RESINFO organise une journée JoSy (Journée Système) sur le thème :

"La Gestion Electronique de Documents (GED), pour qui ? pourquoi ?"

Cet événement se déroulera le mardi 13 octobre 2015 à Paris, dans l’amphithéâtre "Charpak" du LPNHE (Campus UPMC à Jussieu). Il sera diffusé en webcast par le Centre de Calcul de l’IN2P3.

Contexte

Avec l’avènement et l’essor du tout numérique, nos unités de recherche utilisent et gèrent une grande quantité de documents électroniques de nature administrative ou scientifique. Dans cette masse d’informations dématérialisées souvent répartie et distribuée dans tout le système d’information, la question se pose d’assurer une maîtrise efficace et rigoureuse du dépôt documentaire.

Cette maîtrise du référentiel documentaire d’une entité est un élément fondamental d’une démarche qualité, et permet d’assurer l’organisation, l’enregistrement des informations, mais aussi leur traçabilité, pour restituer ainsi une documentation utile, disponible et homogène.

Parmi les besoins et objectifs d’une gestion documentaire maîtrisée on peut citer ceux de :

  • Centraliser et optimiser l’accès à l’information
  • Améliorer la disponibilité de l’information par des fonctions de recherche avancées
  • Faciliter le travail collaboratif et le partage de documents
  • Définir, automatiser et faciliter les processus de gestion documentaire
  • Assurer la pérennité, la conservation et la sécurité des documents

Pour cela, la gestion électronique de documents « GED » désigne un procédé informatisé visant à organiser et gérer des informations et des documents électroniques au sein d’une organisation. Le terme GED désigne également les logiciels permettant la gestion de ces contenus documentaires (in wikipedia).

Appel à contribution

Si vous avez une expérience dans les tests ou la mise en exploitation d’une GED dans votre unité de recherche, Institut, Université, que ce soit sur les plans techniques, logistiques, organisationnels, nous vous invitons à proposer et présenter une communication pour nous faire part de ce retour d’expérience.

Nous cherchons des interventions sur les processus de mise en place d’une GED mais aussi sur des logiciels de GED comme Nuxeo, Silverpeas, Alfresco, Knowledge Tree, etc. (liste non exhaustive)

Inscription et dépôt de contribution

L’inscription à cette journée est gratuite mais obligatoire.

Pour vous inscrire ou pour déposer une proposition de contribution :

Le comité d’organisation/programme

  • Christian Arnault (LAL/IN2P3),
  • Marie-Sophie Clerc (LATMOS/IPSL),
  • Yann Delcambre (LATMOS/IPSL),
  • Maurice Libes (OSU Pytheas),
  • Richard Randriatoamanana (IRCCyN/INS2I) et
  • Alain Rivet (CERMAV/CNRS).

JRES, du 8 au 11 décembre 2015 - Montpellier

Les journées réseaux (JRES 2015) ont lieu tous les deux ans et s’adressent à l’ensemble de la communauté informatique de l’enseignement et de la recherche : architectes et administrateurs systèmes et réseaux, responsables de projets, directeurs des systèmes d’information, responsables ou correspondants de la sécurité du SI, développeurs et utilisateurs.

Les JRES auront lieu cette année du 8 au 11 décembre 2015, à Montpellier .

Les inscriptions sont ouvertes depuis le 17 juin.

Informations et inscriptions sur le site de l’événement.

Ecole informatique de l’IN2P3 "Les outils de mise en production du logiciel", du 28 septembre au 2 octobre - Lyon

Dernière minute (8 juillet) pour vous inscrire à l’école informatique de l’IN2P3 2015 !

Retrouvez tous les détails sur le site de l’événement.

ESC15 School (Efficiency in Scientific Computing), du 26 au 31 octobre - Bertinoro, Italie

Pour la célèbre ESC, qui en est à sa 7e édition, les détails sont là :

The seventh edition of the INFN International School on "Architectures, tools and methodologies for developing efficient large scale scientific computing applications - ESC15" will be held in Bertinoro (Italy) from the 26th to the 31st of October 2015.

The school is mostly targeted to PhD students, post-docs and young researchers who are actively involved with the development of scientific applications and systems. Familiarity and experience with basic concepts of modern OO languages, in particular with C++ language, are desirable prerequisites to attend the school.

The program of this year is structured along two main tracks :

The basics of efficient programming :

  • New processor architectures
  • Efficient floating point computation
  • Tools and methodologies for improving performance
  • Efficient exploitation of the C++ language
  • Managing memory usage Parallel programming for scientific applications :
  • Introduction, OpenMP programming
  • GPU architectures and heterogeneous programming
  • Effective vectorization
  • Introduction to OpenCL and CUDA
  • Cluster computing Lectures will be interspersed with tutorial and practical sessions, providing opportunities for direct applications of optimization tools and technologies as well as for interactions among students, lecturers and tutors.

Detailed agenda and further information to apply to ESC15 are available on the school web site.

The deadline for application is : 15 September 2015.

EGI Community Forum 2015, du 10 au 13 novembre - Bari, Italie

Plus que quelques jours pour déposer vos présentations, posters, démos pour le prochain EGI Community Forum de Bari.

A vos plumes ! Déposez vos abstracts sur le site web du Forum, avant le 12 juillet prochain.

n°31
Juillet
2015
CDD : Administrateur système de stockage - CC-IN2P3 / CNRS

Niveau requis : Bac +3/5 en informatique

Type de contrat : Contrat à durée déterminée

Durée : 36 mois

Rémunération : Selon expérience

Date d’embauche prévue : Poste à pourvoir le 1er juin 2015

Localisation : Poste basé au Centre de Calcul de l’IN2P3 à Villeurbanne


Contexte :

Le Centre de Calcul de l’IN2P3, situé à Villeurbanne près de Lyon, est au service de l’Institut National de Physique Nucléaire et de Physique des Particules, un des 10 Instituts thématiques du CNRS. Le Centre de Calcul met à la disposition de ses utilisateurs (environ 4000 comptes répartis en 70 groupes de recherche), des moyens de traitement et de stockage de masse des données scientifiques (calcul, bases de données, stockage...). Plus d’informations sur http://cc.in2p3.fr.

Poste :

De formation supérieure en informatique (Bac +3 à Bac +5), vous souhaitez travailler dans un milieu dynamique, motivant et à la pointe de la technologie informatique. Au sein de l’équipe Infrastructure vous serez rattaché à l’activité stockage de données (6 personnes). Vous serez impliqué dans le déploiement et l’exploitation de systèmes de stockage de masses de données scientifiques.

Des qualités personnelles telles que la rigueur, la réactivité, l’esprit d’équipe et le sens du service sont requises pour mener à bien vos attributions.

Compétences requises :

  • Connaissance du système Linux (RHEL, Centos)
  • Connaissances des fondamentaux du réseau (TCP/IP)
  • Connaissance de base sur les systèmes de stockage (RAID, FS distribués, SAN, NAS...)
  • Maîtrise des langages de scripting (« shell », python principalement)

Compétences/expériences appréciées :

  • Connaissance des concepts de système de stockage hiérarchique (disques, bandes)
  • Connaissance des environnements stockage distribué comme dCache, xrootd
  • Maîtrise de l’anglais comme langue de travail

Candidature :

Les candidatures (CV et lettre de motivation) sont à envoyer par courrier électronique à « job68@cc.in2p3.fr ».

Les candidats retenus seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3 à Lyon-Villeurbanne.

CDD : Administrateur système, cloud - CC-IN2P3 / CNRS

Niveau requis : Licence / master en informatique

Type de contrat : Contrat à durée déterminée

Durée : 18 mois renouvelables

Rémunération : Selon expérience

Date d’embauche prévue : Poste à pourvoir le 1er juin 2015

Localisation : Poste basé au Centre de Calcul de l’IN2P3 à Villeurbanne.


Contexte :

Le Centre de Calcul de l’IN2P3, situé à Villeurbanne près de Lyon, est au service de l’Institut National de Physique Nucléaire et de Physique des Particules, un des 10 Instituts thématiques du CNRS. Le Centre de Calcul met à la disposition de ses utilisateurs (environ 4000 comptes répartis en 70 groupes de recherche), des moyens de traitement et de stockage de masse des données scientifiques (calcul, bases de données, stockage...). Plus d’informations sur http://cc.in2p3.fr.

Poste :

De formation supérieure en informatique (Bac +3 à Bac +5), vous souhaitez travailler dans un milieu dynamique, motivant et à la pointe de la technologie informatique. Au sein de l’équipe Infrastructure/système (10 personnes), vous prenez en charge les études, développements et administration de solutions de computing HTC/HPC sur des plateformes de cloud, dans le cadre du projet Européen INDIGO DataCloud.

Le travail au sein d’un projet Européen nécessite de très bonnes aptitudes en anglais à l’oral aussi bien qu’à l’écrit.

Des qualités personnelles telles que l’autonomie, la rigueur, la réactivité, l’esprit d’équipe et l’initiative sont requises pour mener à bien vos attributions.

Compétences requises :

  • Connaissance approfondie du système Linux
  • Connaissance approfondie des outils et techniques de virtualisation
  • Connaissances des fondamentaux du réseau (TCP/IP)
  • Connaissance de base sur les systèmes de stockage (RAID, FS distribués, SAN, NAS...)
  • Maîtrise des langages de scripting (Bash principalement)

Compétences/expériences appréciées :

  • Expertise Linux type RHEL
  • Système de gestion de configuration (Puppet/Chef...)
  • Programmation Python
  • Cloud IAAS (Openstack...)
  • Expérience d’administration de plateformes de virtualisation

Candidature :

Les candidatures (CV et lettre de motivation) sont à envoyer par courrier électronique à : job66@cc.in2p3.fr

Les candidats retenus seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3 à Lyon-Villeurbanne.

CDD : Développeur logiciel - CC-IN2P3 / CNRS

Le Centre de Calcul de l’IN2P3/CNRS recherche pour son équipe de développements et d’intégration un développeur logiciel junior.

Le Centre de Calcul de l’Institut national de physique nucléaire et de physique des particules (CC-IN2P3) est une unité de service et de recherche du CNRS. Classé parmi les grandes infrastructures françaises de recherche, il a pour vocation de fournir des moyens de calcul et de stockage de données aux chercheurs impliqués dans les expériences de physique corpusculaire. Plus de 4000 utilisateurs organisés en plus de 70 collaborations internationales utilisent ses services 24h/24, 7j/7. [Plus d’information : http://cc.in2p3.fr]

Fonctions

Vous aimez et maitrisez les technologies Web et/ou les technologies Java, vous aimez gérer vos projets en mode agile, vous voulez automatiser le cycle de vie du logiciel, vous voulez déployer vos solutions sous linux et vous aimez travailler en équipe ?

Le contact avec les utilisateurs et le retour de leurs expériences vous motivent ?

Travailler dans un grand centre de calcul du CNRS vous intéresse ?

Rejoignez-nous.

Pour les débutants, les stages et expériences personnelles seront évalués.

Mots-clés : Web, HTML, JavaScript, PHP, Java, Linux

Conditions Contractuelles

Salaire selon diplôme et expérience. Le contrat est un contrat à durée déterminée jusqu’au 31 décembre 2016.

Dépôt des Candidatures

Envoyez votre candidature (CV et lettre de motivation) par courrier électronique (format PDF de préférence, MS Word ou texte également acceptés) à l’adresse : job64@cc.in2p3.fr

Les candidatures sont acceptées jusqu’à l’attribution du poste. Les candidats retenus seront convoqués à un premier entretien dans les locaux du Centre de Calcul de l’IN2P3 à Lyon.

n°31
Juillet
2015
Second Indico Virtual Event

Le deuxième Evénement Virtuel Indico (Second Indico Virtual Event) a réuni une petite vingtaine de participants le 20 mars dernier, bien moins que ce qui a pu être vu lors des éditions précédentes en 2014 et même le présentiel en 2013, et dans des conditions techniques incertaines (un comble pour une vidéoconférence organisée par le saint des saints du « Collaboration & Information Service » du CERN !).

Le thème central était la route vers Indico 2.0, qui devrait être achevée vers la fin de cette année, après un an de concentration de toutes les forces présentes au CERN sur le développement de cette édition majeure, qui s’affranchira de la base objets ZODB actuelle au profit d’une base de données SQL. Outre ce changement majeur, des changements structurels, comme l’ouverture à toute sorte de greffon (plugin) fourni par l’utilisateur-administrateur, sont destinés à rendre la collaboration avec l’équipe de développement centrale encore plus facile.

Le management du projet Indico souhaite élargir l’utilisation dans le monde entier. Un effort impressionnant de professionalisation et de merchandising a été fait, avec l’aide du fond "Knowledge Transfer" du CERN. Et pas moins de 19 langues ont été enregistrées pour recevoir le travail des traducteurs bénévoles via l’application Transifex dans le "cloud". Pour être honnête, seulement cinq (en, fr, de, it, es) ont passé la barre des 50% de textes de l’interface utilisateur traduits pour le moment. L’appel à contributions est fait. (Vous pouvez contacter les coordinateurs via le site Transifex indiqué ci-dessus ou par l’auteur de cette brève.) Et les contributions sont bien nécessaires. Depuis le début de la grande migration 2.0, 20% des textes traduits sont redevenus inutilisables.

La prochaine rencontre doit avoir lieu au printemps 2016. D’ici-là, la liste de diffusion project-indico-administrators@cern.ch (archives sur https://groups.cern.ch/group/project-indico-administrators/ à condition d’avoir au moins un compte minimal [1] au CERN) permet d’échanger avec les co-administrateurs d’Indico dans le monde entier et aussi avec les développeurs.

[1] Un compte externe ("leightweight") peut être obtenu par toute personne physique, à défaut d’être enregistré officiellement comme Utilisateur CERN au sein d’une collaboration de son labo d’origine : https://account.cern.ch/account/Ext...

Nouvelles listes de diffusion thématiques

La nouvelle liste de diffusion thématique stockage-distribue@groupes.renater.fr est disponible.

Si vous souhaitez y contribuer ou suivre les échanges relatifs aux outils et concepts de stockage distribué, inscrivez-vous en adressant un mail à : sympa@groupes.renater.fr avec ceci en sujet du mail : subscribe stockage-distribue

Pour rappel, deux autres listes, récemment créées, qui pourraient concerner un plus grand nombre d’utilisateurs, afin d’échanger questions, idées et nouveautés sur ces deux langages de programmation, au sein d’une communauté exclusivement ESR (enseignement supérieur et recherche) :

Les archives de ces listes gérées sur le serveur SYMPA du CNRS sont accessibles aux adresses :

ou encore

d’où il est possible de s’abonner/désabonner également par le biais d’une interface HTTP.

VIDYO maintenant accessible par téléphone depuis la France

A noter

La France rejoint enfin le club des pays d’où l’on peut accéder à Vidyo par le réseau téléphonique national.

Pour cela, composer le 04 81 07 75 80.

Consulter la liste complète des accès téléphoniques nationaux ici.