| Le Higgs passe au vert avec le calcul haute performance |
|
 Une méthode d’analyse pour CMS L’application CMS-MEM est un outil d’analyse basé sur la Méthode des Éléments de Matrice (MEM) [1]. Elle permet de combiner de manière optimale l’information théorique décrivant des processus physiques avec l’information expérimentale décrivant la résolution d’un détecteur. Elle a été développée dans sa version « Htautau » au LLR, et elle est utilisée dans l’expérience CMS pour caractériser les propriétés du boson de Higgs, produit en association avec des quarks top, et se désintégrant en paires de leptons tau. A l’opposé des méthodes supervisées (réseau de neurones, arbre de décision, machines à vecteur de support), la MEM permet de définir des discriminants pour la classification d’événements, sans apprentissage, en s’appuyant sur la physique pour calculer les probabilités d’observer les états finaux attendus. Cette nouvelle méthode plus précise est, néanmoins, extrêmement consommatrice de temps CPU. Dans ce contexte, l’équipe CMS du LLR, par le biais du travail de recherche de T. Strebler sur le canal ttH, a relevé le défi de développer un application dite "HPC" [2]. Dans une première étape, elle a été exploitée sur des plates-formes multi-nœuds / multi-cœurs , puis dans un second temps sur des architectures multi-nœuds / multi-GPUs [3]. L’implémentation multi-nœuds / multi-cœurs a été utilisée avec (...) lire la suite |
|
| | | |
LHC
Après deux premières sessions en février et mai dernier, le prochain Scientific Computing Forum, qui réunit des experts dans le domaine des applications de calcul intensif du secteur public, se réunira le 27 octobre prochain au CERN.
L’une des principales motivations du CERN dans l’organisation du Scientific Computing Forum est le défi lancé par le futur accélérateur LHC haute luminosité (HL-LHC).
En effet, le traitement des données des expériences organisées au CERN a toujours poussé les limites des infrastructures informatiques associées. Cela a conduit par exemple au développement de la grille informatique, qui sert la communauté depuis 15 ans maintenant [1].
Grâce à cette infrastructure internationale de grille de calcul (WLCG), nous pourrons traiter les 50 Po de données attendues en 2017. Mais les expériences au LHC doivent évoluer si la physique des particules au CERN veut continuer à produire des résultats scientifiques de première classe. Dans un an, le LHC cessera de prendre des données (...) lire la suite
|
Logiciel
Un nouvel outil s’installe dans le paysage de la gestion des ressources du calcul distribué : Spark. Plusieurs actions ont démarré depuis un an, à l’IN2P3 et à l’université Paris-Sud (U-PSud), ayant comme objectif de comprendre et évaluer ce nouvel éco-système de programmation et de calcul distribué. En effet, Spark semble proposer des solutions tout à fait complémentaires aux outils de calcul intensif et haut-débit (HPC, HTC) déjà implantés dans nos environnements.
Spark a démarré comme projet de recherche à l’université UC Berkeley en 2009, puis a été pris en charge par la fondation Apache. Il est maintenant une plateforme logicielle Open Source de traitement des données. Développé en Scala, il s’interface naturellement avec les langages Java, Python et R (et Scala). Spark se propose d’optimiser et d’élargir le concept déjà bien connu de « Map-Reduce » (déployé dans le framework Hadoop), tout en optimisant de façon cohérente l’utilisation de la mémoire et les communications entre processus, grâce à une analyse du graphe (DAG) des tâches et des transferts de jeux de données, en s’appuyant largement sur la (...) lire la suite
|
Colloque
Les journées MaDICS ont eu lieu les 22 et 23 juin à l’École de Management de Marseille (EDM), co-organisées localement par des laboratoires CNRS / Aix-Marseille Université (CPPM, IMBE, LAM). MaDICS (Masses de Données, Informations et Connaissances en Sciences) est un groupement de recherche (GdR) qui permet d’encourager les activités d’animation interdisciplinaires sur les masses de données scientifiques.
Les journées se sont déroulées en deux temps : d’abord une session plénière le 22 juin a mis en avant des thématiques phares, parmi lesquelles des avancées obtenues au sein des actions du GdR. La séance a inclus des présentations sur de sujets de recherche innovants : nouveau concept et plateforme RAMP Rapid Analytics and Model Prototyping (Balasz Kegl, Université Paris-Saclay), Recherches en masses de Données Bioacoustiques (Herve Glotin, Univ. Toulon), Analyse statistique (machine learning) en partenariat industriel (Charlotte Laclau, Laboratoire LIG Grenoble) et Flux de travail scientifiques et outils complémentaires pour la reproductibilité en bio-informatique (...) lire la suite
|
Simulation
PSPA est un projet né il y a quelques années sur une idée d’Alessandro Variola, alors responsable du département Accélérateurs, au Laboratoire de l’Accélérateur Linéaire d’Orsay. Il vise à fournir aux concepteurs d’accélérateurs de particules un outil universel et convivial permettant d’exécuter différents codes de simulation d’accélérateurs existants de la discipline en les combinant facilement entre eux.
Aujourd’hui, pour concevoir ou étudier un accélérateur de particules, un « physicien machine » dispose d’un nombre important de codes de modélisation et de simulation, essentiellement open source, produits par la communauté des accélérateurs. L’usage de la plupart d’entre eux est libre, mais leur facilité de mise en œuvre (disponibilité, systèmes d’exploitation supportés, documentation, convivialité d’utilisation…) est très variable, avec un grand nombre de paramètres de configuration.
Ce physicien machine doit dès lors faire face à une multitude de problèmes :
Il doit récupérer le code qui l’intéresse et l’installer sur les ressources informatiques dont il dispose
Une étude de (...) lire la suite
|
|
Imprimer
Agenda
Rechercher
Proposer un article
|