imprimer
n°1
Juillet
2008
Test “grandeur nature” des opérations de calcul scientifique du LHC
LHC. Trois lettres qui résonnent dans les couloirs de l’IN2P3. Et pour cause, le plus grand accélérateur de particules du monde (ou Large Hadron Collider) va être mis en production cet été.

Ce projet gigantesque, auquel collabore une dizaine de laboratoires de l’Institut et quelques milliers de personnes dans le monde, a pour objectif ambitieux rien de moins que de tester le Modèle Standard cher aux physiciens et à terme de mieux comprendre l’origine de l’Univers. Autour de cet accélérateur de 27 kilomètres de circonférence installé au Cern, à une centaine de mètres sous la frontière franco-suisse, ont été installés quatre détecteurs (ALICE, ATLAS, CMS et LHCb) qui vont recueillir quelque 15 millions de gigaoctets de données par an.

Afin de stocker et de traiter ces données, la grille de calcul W-LCG (Worldwide LHC Computing Grid) a été déployée dans environ 200 pays situés en Europe, en Asie et en Amérique, afin d’obtenir une infrastructure internationale de traitement informatique qui intègre des milliers d’ordinateurs et de ressources de stockage. Cette infrastructure est basée sur celle de la grille pluridisciplinaire EGEE (Enabling Grids for E-SciencE), actuellement la plus grande grille au monde.

Le premier centre de W-LCG, désigné sous le nom de Tier 0 et installé au Cern, acquerra toutes les données générées par (...)

lire la suite

Développement

Un exemple de développement mutualisé : PHPMyResa

Vous connaissez certainement le logiciel PHPMyResa. Il s’agit d’un logiciel web, basé sur la technologie PHP/MySQL (PostgreSQL et Oracle sont également supportés), servant à gérer des réservations de ressources, typiquement des salles de réunions, mais peut également s’appliquer à des véhicules, du matériel de prêt, des cours de tennis, etc. Mais saviez-vous que ce produit a été entièrement développé à l’IN2P3 ? Qu’il est maintenant disponible sur Internet, en tant que logiciel libre diffusé sous licence GPL, et a déjà été téléchargé plus de 700 fois par divers établissements (laboratoires du CNRS, universités, établissements de l’Education Nationale, associations, établissements privés, …) en France et à l’étranger ? Au commencement, ce logiciel a été écrit en 2000 par Daniel Charnay pour les besoins internes du Centre de Calcul de l’IN2P3/CNRS. Le LPNHE s’est rapidement intéressé à ce logiciel, l’a installé en 2001 et a modifié des portions de code afin de l’améliorer. Début 2003, un stagiaire encadré par Patricia Warin-Charpentier au Laboratoire de Physique Nucléaire et de Hautes (...)

lire la suite

Systeme de Données

iRODS 1.1 : une nouvelle génération de middleware

On assiste depuis plusieurs années à une explosion des quantités de données et de métadonnées produites par les projets scientifiques, en premier lieu dans les disciplines couvertes par l’IN2P3 mais aussi dans les domaines de la biologie, l’astrophysique, les sciences de la Terre voire même maintenant les sciences humaines et sociales. A ceci s’ajoute un environnement de travail complexe où de vastes communautés scientifiques dispersées géographiquement sont appelées à travailler sur des données communes à l’aide de systèmes informatiques de traitement et de stockage des données hétérogènes eux aussi distribués à travers le monde.

lire la suite

Laboratoire

L’IPHC prêt à accroître ses ressources de calcul avant le démarrage du LHC

Déjà très impliqués dans la construction et l’installation des trajectographes des expériences CMS et Alice au LHC, les groupes de physique de :Institut pluridisciplinaire Hubert Curien de Strasbourg se préparent activement à l’exploitation des premières données. Calibration des détecteurs, reconstruction et identification des particules sont des étapes indispensables avant d’aborder les grands thèmes de recherche au LHC, qu’il s’agisse du boson de Higgs et de nouvelle physique dans CMS, ou du plasma quarks/gluons dans Alice. Toutes ces études nécessitent de traiter un grand volume de données.

lire la suite

Monitoring systeme

Zabbix, outil de supervision

Zabbix est un outil de supervision système et réseau, mais en quoi est-ce un outil qui se distingue de l’offre logicielle déja pléthorique ? Tout d’abord, ce logiciel est développé sous licence GPL et fait donc partie d’une grande famille qui comprend Nagios, Big Sister, openNMS... Ce projet existe depuis 2002 et, en 2005, une société du même nom a été créée à Riga en Lettonie. Cette société vit du support et de l’expertise sur le produit. Zabbix étant un projet open source, la société se doit de conserver son avantage et donc de faire évoluer le produit. Un coup d’œil sur le site suffit pour nous convaincre de l’énergie insufflée dans ce projet. Ensuite, cela peut paraître un lieu commun, mais Zabbix est réellement simple à installer et est de plus compatible avec les systèmes Linux, Windows, Mac et Unix. La facilité d’installation provient de la disponibilité des binaires pour les distributions majeures et du travail de la société pour fournir des sources aisément compilables. Un autre intérêt de Zabbix est son architecture complète et extensible de type client/serveur. Le serveur collecte les données et les (...)

lire la suite

Agenda
Du 29 sept. au 2 oct. 2008 - 6e édition des Journées Informatique de l’IN2P3 et de l’IRFU
Les Journées Informatique de l’IN2P3 et de l’IRFU sont organisées tous les deux ans et la 6e (...)

en savoir plus

Rechercher
Abonnement
Pour vous abonner/désabonner, suivez ce lien.
Proposer un article
Vous souhaitez proposer un article ? Envoyez un mail à LettreInformatique@in2p3.fr.
logo CCIN2P3
© 2008 CCIN2P3
n°1
Juillet
2008
Test “grandeur nature” des opérations de calcul scientifique du LHC

LHC. Trois lettres qui résonnent dans les couloirs de l’IN2P3. Et pour cause, le plus grand accélérateur de particules du monde (ou Large Hadron Collider) va être mis en production cet été.

Ce projet gigantesque, auquel collabore une dizaine de laboratoires de l’Institut et quelques milliers de personnes dans le monde, a pour objectif ambitieux rien de moins que de tester le Modèle Standard cher aux physiciens et à terme de mieux comprendre l’origine de l’Univers. Autour de cet accélérateur de 27 kilomètres de circonférence installé au Cern, à une centaine de mètres sous la frontière franco-suisse, ont été installés quatre détecteurs (ALICE, ATLAS, CMS et LHCb) qui vont recueillir quelque 15 millions de gigaoctets de données par an.

Afin de stocker et de traiter ces données, la grille de calcul W-LCG (Worldwide LHC Computing Grid) a été déployée dans environ 200 pays situés en Europe, en Asie et en Amérique, afin d’obtenir une infrastructure internationale de traitement informatique qui intègre des milliers d’ordinateurs et de ressources de stockage. Cette infrastructure est basée sur celle de la grille pluridisciplinaire EGEE (Enabling Grids for E-SciencE), actuellement la plus grande grille au monde.

Le premier centre de W-LCG, désigné sous le nom de Tier 0 et installé au Cern, acquerra toutes les données générées par les détecteurs et réalisera une sauvegarde. Il transmettra ensuite les informations aux 11 grands centres nationaux désignés comme Tier 1, dont le Centre de Calcul de l’IN2P3/CNRS(CC-IN2P3), à Lyon, fait partie. Ces Tiers 1, disponibles 24 heures sur 24, assureront la pérennité des données et réaliseront un premier traitement avant de les transmettre aux Tier 2 et 3, répartis dans tous les pays, où se fera l’analyse physique proprement dite.

Pour mener à bien cette mission, le CC-IN2P3 dispose actuellement d’un système de 8200 processeurs et d’une capacité de stockage de 8 millions de gigaoctets, constituée de disques durs et de bandes magnétiques. Cette capacité sera doublée annuellement pendant les années à venir. Les laboratoires IN2P3, déjà fortement impliqués dans la construction des détecteurs des expériences LHC, déploient eux activement des fermes de calcul locales ou régionales ouvertes sur la grille LCG. C’est ainsi que plusieurs centres de traitement de données du LHC ont été créés et sont exploités par 11 laboratoires IN2P3/CNRS en France [1]. 2008 sera une année de référence qui permettra de valider en grandeur nature les modèles élaborés par les physiciens des particules mais ce n’est que le début d’une montée en puissance soutenue pendant plusieurs années.

Identifier les blocages

Ainsi, afin de vérifier le degré de maturité et de disponibilité de l’infrastructure informatique pour le démarrage du LHC, un exercice entrepris avec les données simulées et de manière concomitante avec les quatre expériences LHC en associant tous les sites de la grille, a été programmé. Cet exercice dont l’acronyme est CCRC’08 pour « Common Computing Readiness Challenge » avait pour objet l’identification des éventuels blocages et la mise en place de solutions adaptées. Ces tests sont complémentaires aux divers tests prévus par chacune des expériences dans le cadre de leur programme de validation avant le début de la prise de données.

Ainsi, entre février et mai 2008, plusieurs exercices ont eu lieu : des transferts de données entre les détecteurs et le centre de calcul du Tier 0 au CERN, site de collecte de données réelles, et entre le Tier 0 et les 11 sites de niveau 1 localisés sur 3 continents ont été effectués. Les échanges de données entre sites de niveau 1 et de niveau 2 ont aussi été réalisés avec succès. Les débits observés pendant ces divers exercices ont montré la capacité de l’infrastructure actuelle à satisfaire simultanément les besoins des quatre expériences LHC avec une marge suffisante pour absorber les éventuels ralentissements. A titre d’exemple, l’expérience CMS a montré un volume de données échangées allant jusqu’à 100 TO par jour entre plus de 50 sites distribués partout dans le globe. A leur tour, des données de l’expérience ATLAS ont été transférées depuis le Tier 0 au CERN jusqu’aux 10 Tiers 1. ATLAS à un débit allant jusqu’à 1 Go/sec, c’est-à-dire environ 60% plus élevé que le débit nominal nécessaire pour la première année de prise de données.

Jusqu’à 200 000 tâches exécutées par jour

En plus des exercices de transfert de données, plusieurs campagnes de traitement des données ont été réalisées. Il s’agissait de valider la capacité des différents sites de la grille W-LCG à réaliser les processus de reconstruction des données brutes, de réduction et de sélection de données ainsi que de génération de données à partir de la simulation du comportement des détecteurs. L’infrastructure informatique a montré sa capacité à traiter jusqu’à 200 000 tâches exécutées par jour sur plus de 50 sites utilisés par l’expérience CMS.

Pour les centres opérateurs français du calcul LHC, la campagne de test du premier semestre 2008 a permis de rendre compte de l’efficacité des transferts de données, de souligner les éventuels blocages, des problèmes inhérents à la complexité du modèle de grille et à la complexité des systèmes de stockage de données mis en œuvre. Cette campagne de validation et les enseignements qui en résultent représentent donc un pas de plus dans la préparation au démarrage imminent du LHC, qui délivrera alors les données, en grande quantité et sur une longue période.

AUTEURS COLLECTIFS (LCG-FRANCE)

[1] Les références des laboratoires opérant un site de niveau 2 ou 3 sont : LAL Orsay, LLR, LPNHE Paris, IPN Orsay, Subatech Nantes, LPC Clermont, LPSC Grenoble, LAPP Annecy, IPN Lyon, CPPM, IPHC.

n°1
Juillet
2008
Cristinel Diaconu : "IN2P3 Informatique est plus qu’un simple résumé du site"

Chargé de mission informatique IN2P3

- Pourquoi avez-vous songé à créer IN2P3 Informatique ?

L’expertise des informaticiens de l’IN2P3 est très riche. Leur participation dans les projets de physique de l’Institut va bien au-delà du simple service ; et dans plusieurs cas, ils sont à la pointe des recherches. Dès ma prise de fonctions en tant que chargé de mission pour l’informatique à l’IN2P3, j’ai constaté la volonté des informaticiens de constituer un réseau professionnel afin de profiter de toutes ces compétences et de continuer à les enrichir par des échanges réguliers. Nous avons mis en place le Conseil de Coordination du Réseau des Informaticiens (CCRI), une structure qui s’est attachée à l’organisation du Réseau des informaticiens de l’IN2P3 et de l’IRFU (RI3). Un site web doté d’un forum a commencé à fonctionner et des réunions régulières a commencé à faire vivre le réseau RI3. Nous constatons un intérêt croissant de nos collègues (plus de 100 se sont inscrits sur le site web et le forum) et des initiatives commencent à faire surface. Nous avons donc grand espoir que cet enthousiasme soit suivi d’une structuration sur des groupes de travail qui assureront alors un échange permanent. Dans ce contexte, nous avons réfléchi à un moyen de communication plus rythmé qui, en complément du site web et du forum, donnera l’occasion aux informaticiens de s’informer à travers des contributions plus synthétiques et organisées. En plus, nous avons là un moyen potentiel pour la communication avec nos collègues non-informaticiens, en particulier avec les physiciens. A terme, IN2P3 Informatique pourra devenir aussi un moyen de communication vers l’extérieur de l’IN2P3, notamment dans le cadre du groupement des réseaux des informaticiens du CNRS et au-delà. Il faut souligner que l’idée de réaliser une lettre d’information pour les informaticiens et très fortement soutenue par le Centre de Calcul de l’IN2P3/CNRS et s’insère tout naturellement dans le rôle central du CC-IN2P3 pour l’informatique à l’IN2P3.

- Qui peut proposer un article à publier dans IN2P3 Informatique ? sur quel sujet ?

Nous proposons un outil de communication qui peut s’avérer efficace si la communauté des informaticiens s’en sert pour documenter les expertises du réseau. Nous allons donc stimuler les contributions sous la forme d’articles d’experts, mais aussi des présentations pour le public non-expert des différentes nouveautés technologiques. Dans le format de départ, nous avons prévu aussi un espace pour des annonces et pour des contributions brèves, qui pointent sur d’autres sites. En conclusion, tous les informaticiens de l’IN2P3 et IRFU sont des contributeurs potentiels et nous pensons que la lettre donnera l’occasion de se faire connaître et de propager l’expertise à l’intérieur de notre réseau et au-delà.

- Comment le contenu d’IN2P3 Informatique se distingue t-il de celui du site web du RI3 ?

IN2P3 Informatique ouvrira la possibilité d’avoir des synthèses, des présentations d’introductions, de faire des annonces. Le site web sera une source importante d’informations, par exemple en ce qui concerne les nouvelles et les annonces d’événements. Mais nous pensons que la lettre constituera aussi une occasion régulière de faire le point sur certaines directions de réflexions. IN2P3 Informatique sera plus qu’un simple résumé du site. Par sa nature, elle se lira différemment et, j’espère, par plus de lecteurs en même temps que les différentes discussions qui font vivre le site web et le forum. L’apparition régulière de la lettre donnera aussi l’occasion à notre public de visiter le site web et éventuellement de découvrir plus de sujets d’intérêt liés aux activités du réseau RI3.

Propos recueillis par Gaëlle SHIFRIN

n°1
Juillet
2008
Un exemple de développement mutualisé : PHPMyResa

Vous connaissez certainement le logiciel PHPMyResa. Il s’agit d’un logiciel web, basé sur la technologie PHP/MySQL (PostgreSQL et Oracle sont également supportés), servant à gérer des réservations de ressources, typiquement des salles de réunions, mais peut également s’appliquer à des véhicules, du matériel de prêt, des cours de tennis, etc. Mais saviez-vous que ce produit a été entièrement développé à l’IN2P3 ? Qu’il est maintenant disponible sur Internet, en tant que logiciel libre diffusé sous licence GPL, et a déjà été téléchargé plus de 700 fois par divers établissements (laboratoires du CNRS, universités, établissements de l’Education Nationale, associations, établissements privés, …) en France et à l’étranger ?

Au commencement, ce logiciel a été écrit en 2000 par Daniel Charnay pour les besoins internes du Centre de Calcul de l’IN2P3/CNRS. Le LPNHE s’est rapidement intéressé à ce logiciel, l’a installé en 2001 et a modifié des portions de code afin de l’améliorer. Début 2003, un stagiaire encadré par Patricia Warin-Charpentier au Laboratoire de Physique Nucléaire et de Hautes Energies a inclus une nouvelle fonctionnalité très intéressante : les réservations répétitives.

Un logiciel largement téléchargé

Fin 2003, le Laboratoire de Physique Subatomique et de Cosmologie de Grenoble s’est également intéressé au projet. Afin de ne pas appliquer à nouveau les modifications à chaque nouvelle version, nous avons décidé (CC-IN2P3, LPNHE et LPSC) de coordonner nos efforts et avons ainsi créé le logiciel PHPMyResa. Il s’agit d’une version commune de nos différents codes. Toutes les spécificités que nous avions apportées s’y trouvent et sont paramétrables. Mi 2004, sa version 1.0 a été diffusée, via le site http://phpmyresa.in2p3.fr, sans publicité particulière. Bien qu’ayant peu diffusé l’existence de ce logiciel, celui-ci a été largement téléchargé et installé.

Depuis, il a été présenté à la Journée 2005 des Webmasters de l’IN2P3, aux Journées Informatiques de l’IN2P3(en septembre 2006) et dans le but de promouvoir son utilisation dans les domaines de l’Éducation Nationale et de la recherche, PHPMyResa a été un des premiers logiciels à posséder une fiche dans le projet PLUME (dont le but est de Promouvoir les Logiciels Utiles, Maîtrisés et Économique dans la communauté de l’Éducation Nationale et de la recherche).

Ce projet est désormais piloté par le groupe composé de ses initiateurs et développé principalement au LPSC. Depuis, la première version à la version 4.0, qui sera disponible durant l’été 2008, de nombreuses améliorations ont été apportées : ajout d’un support multilingue (français, anglais, espagnol et allemand), réservations continues en plus des réservations périodiques, réservations de plusieurs ressources simultanément, possibilité d’utiliser PostgreSQL ou Oracle comme SGBD, ajout d’une interface d’installation et de configuration, etc. De nombreuses nouvelles évolutions sont maintenant à l’étude : possibilité de réserver une ressource ‘générique’, refonte de l’interface graphique en web2.0, ajout de web services afin de permettre l’interopérabilité (des web services SOAP existent déjà mais uniquement pour des besoins internes au LPSC).

Bref, ce projet bien que ne nécessitant pas de moyens importants est un exemple de développement mutualisé entre laboratoires de l’IN2P3 et bien que non lucratif, il est un exemple de valorisation permettant de faire connaître l’IN2P3 au-delà de ses frontières.

Frédéric MELOT (LPSC - Grenoble)

n°1
Juillet
2008
iRODS 1.1 : une nouvelle génération de middleware

On assiste depuis plusieurs années à une explosion des quantités de données et de métadonnées produites par les projets scientifiques, en premier lieu dans les disciplines couvertes par l’IN2P3 mais aussi dans les domaines de la biologie, l’astrophysique, les sciences de la Terre voire même maintenant les sciences humaines et sociales. A ceci s’ajoute un environnement de travail complexe où de vastes communautés scientifiques dispersées géographiquement sont appelées à travailler sur des données communes à l’aide de systèmes informatiques de traitement et de stockage des données hétérogènes eux aussi distribués à travers le monde.

Cet environnement de grille nécessite des intergiciels permettant la gestion et la distribution des données dans un milieu hétérogène. Ces briques doivent masquer la complexité et la diversité des systèmes de stockage sous-jacents tout en les fédérant et en fédérant également la communauté des utilisateurs. iRODS (pour integrated Rule-based Data System), logiciel « open source » dont la version 1.1 est sortie en juin 2008 répond à une vaste série de besoins qui découlent d’une telle organisation. Comme son prédécesseur SRB (Storage Resource Broker) utilisé par une dizaine de groupes au Centre de Calcul de l’IN2P3/CNRS et gérant plus de 800 To de données, iRODS (dont les développements sont dirigés par le San Diego Supercomputing Center) permet de virtualiser l’accès aux ressources de stockage et fournit une palette riche d’outils d’aide à la gestion de données (extraction de métadonnées, intégrité des données etc.).

Mais ce qui rend iRODS particulièrement innovant est son moteur de règles qui n’a pas d’équivalent parmi tous les outils de grille. Ce moteur de règles permet d’effectuer des tâches complexes au niveau de la gestion de données : les politiques de gestion des données se trouvent du coup « virtualisées » en appliquant des règles côté serveur qui contrôlent l’exécution des opérations de manipulation et d’accès aux données. Du coup, il n’est plus nécessaire d’implémenter en dur les workflows ou les actions sur les données au niveau des applications clientes. iRODS est financé par la NSF (National Science Foundation) et la NARA (National Archives and Records Administration). Le CC-IN2P3 avec le groupe « Data Management » de e-Science en Grande-Bretagne est l’un des principaux collaborateurs étrangers du projet.

Le CC-IN2P3 s’est engagé dans le développement d’outils de tests de charge, de fonctionnalités (répartition de charge dynamique, monitoring, etc.) ainsi que dans le développement de l’interfaçage avec des systèmes de stockage de masse. D’autre part, une ingénieure du KEK (Koh Ene Ken, au Japon) est venue travailler à Lyon durant 8 mois sur les problématiques de transferts longue distance, de tests de charge et d’intégration dans la perspective d’utiliser iRODS dans le monde de la physique des particules. Le CC-IN2P3 a installé une première instance en production pour accueillir de nouveaux projets, le premier d’entre eux étant un projet d’archive numérique de documents anciens. D’autres projets vont suivre dans un proche avenir.

En France, iRODS est en phase d’évaluation à la Bibliothèque Nationale de France, au Centre des Données de Strasbourg (Observatoire de Strasbourg) dans le cadre de l’intégration de iRODS avec les couches logiciels de l’Observatoire Virtuel, et dans diverses entreprises privées (Xerox, HP). Le CC-IN2P3 est en relation avec la BNF et le CDS sur ce sujet.

Enfin, notez qu’un workshop iRODS aura probablement lieu à Lyon en janvier ou février 2009.

Jean-Yves NIEF (CC-IN2P3)

n°1
Juillet
2008
L’IPHC prêt à accroître ses ressources de calcul avant le démarrage du LHC

Déjà très impliqués dans la construction et l’installation des trajectographes des expériences CMS et Alice au LHC, les groupes de physique de :Institut pluridisciplinaire Hubert Curien de Strasbourg se préparent activement à l’exploitation des premières données. Calibration des détecteurs, reconstruction et identification des particules sont des étapes indispensables avant d’aborder les grands thèmes de recherche au LHC, qu’il s’agisse du boson de Higgs et de nouvelle physique dans CMS, ou du plasma quarks/gluons dans Alice. Toutes ces études nécessitent de traiter un grand volume de données.

Travaux de nuit à l’IPHC

Une ferme de calcul de niveau 3 (Tier 3) intégrée à la Grille de Calcul W-LCG (W-LHC Computing Grid, voir article en Une) a été mise en place l’an dernier au laboratoire. Elle est constituée de machines de service et de douze machines de calcul bi-processeurs bi-cœurs totalisant 100 kSI2k (en unité standard des documents LCG). Les capacités de stockage consistent en 60 TB de disque dur. Le Tier 3 est connecté à la Grille LCG via le réseau national Renater et le réseau universitaire local Osiris dont la bande passante est de 1 Gb/s pour l’IPHC.

Exploité non seulement par CMS et ALICE, mais aussi par plusieurs autres groupes de l’IPHC, notamment pour la simulation de détecteurs, ce Tier 3 atteint maintenant ses limites. Le laboratoire a l’opportunité, grâce à la contribution de la région Alsace, d’accroître les ressources de calcul et de satisfaire aux exigences requises pour un Tier 2, projet soumis à l’approbation des instances LCG.

Afin de préparer et accompagner l’achat de nouveau matériel informatique, des travaux d’infrastructure ont été réalisés au laboratoire du 5 au 7 mai dernier. La salle informatique a été agrandie, passant de 64 m2 à 94 m2 aux dépens d’un local attenant qui servait d’atelier et de stockage. La réalisation s’est faite en deux étapes : la première consistait en divers travaux préalables sans conséquence sur le fonctionnement de l’informatique. La deuxième étape a nécessité un arrêt total des serveurs. En raison de l’ampleur des travaux et pour minimiser la durée de l’arrêt, il a été nécessaire de faire travailler de nuit certains corps de métiers. Les travaux ont pu ainsi être limités à trois jours pendant lesquels une nouvelle climatisation de 100 kW a pu être installée sur le toit du bâtiment. Ce groupe froid irriguera l’ensemble des baies informatiques climatisées (Voir vignette ci-contre). Son fonctionnement est dit à voie sèche, donc sans risque de légionellose. La salle est désormais prête à accueillir un quadruplement de ses capacités de calcul et de stockage, prévu pour cet automne.

Daniel BLOCH, Yannick Patois et Nicolas Rudolf (IPHC)

n°1
Juillet
2008
Zabbix, outil de supervision

Zabbix est un outil de supervision système et réseau, mais en quoi est-ce un outil qui se distingue de l’offre logicielle déja pléthorique ?

Tout d’abord, ce logiciel est développé sous licence GPL et fait donc partie d’une grande famille qui comprend Nagios, Big Sister, openNMS... Ce projet existe depuis 2002 et, en 2005, une société du même nom a été créée à Riga en Lettonie. Cette société vit du support et de l’expertise sur le produit. Zabbix étant un projet open source, la société se doit de conserver son avantage et donc de faire évoluer le produit. Un coup d’œil sur le site suffit pour nous convaincre de l’énergie insufflée dans ce projet.

Ensuite, cela peut paraître un lieu commun, mais Zabbix est réellement simple à installer et est de plus compatible avec les systèmes Linux, Windows, Mac et Unix. La facilité d’installation provient de la disponibilité des binaires pour les distributions majeures et du travail de la société pour fournir des sources aisément compilables.

Un autre intérêt de Zabbix est son architecture complète et extensible de type client/serveur. Le serveur collecte les données et les stocke dans une base de données (Mysql, PostgreSQL...). Contrairement à d’autres systèmes, le stockage en base de données n’est pas ici une option. Pour fournir ces données, zabbix propose trois mécanismes : collecte directe, requêtes SNMP ou agent zabbix. La collecte directe est effectuée par le serveur et permet d’effectuer des tests simples (ping, port actif...). Le serveur peut aussi interroger les équipements gérables en SNMP. Enfin, sur les serveurs ou stations de travail, il est possible de déployer un agent spécifique. Cet agent donne accès à des données prédifinies (consommation mémoire, occupation CPU...) et peut être étendu par le biais de scripts. Ces scripts peuvent être réalisés en tout langage, ils doivent juste écrire leurs résultats sur la sortie standard.

Enfin, Zabbix, toujours dans un souci de cohérence, propose une interface aussi bien pour l’exploitation que pour le paramétrage. Cette caractéristique ajoute de la souplesse à l’administration. L’interface est très complète et localisée et ne nécessite pas d’ajouter des plugins pour la visualisation des graphiques.

Yann AUBERT (IPN Orsay)

n°1
Juillet
2008
Du 29 sept. au 2 oct. 2008 - 6e édition des Journées Informatique de l’IN2P3 et de l’IRFU

Les Journées Informatique de l’IN2P3 et de l’IRFU sont organisées tous les deux ans et la 6e édition se tiendra à Obernai, près de Strasbourg, du 29 septembre au 2 octobre prochain. Elles sont un lieu de rencontre des acteurs de l’informatique de l’IN2P3 et de l’IRFU et abordent tous les aspects de la mise en œuvre et de l’utilisation de l’informatique pour la recherche en physique des particules et astroparticules et en physique nucléaire.

Première occasion de rencontre de la communauté des informaticiens IN2P3/Irfu depuis la mise en place du réseau RI3, ce sera là une occasion d’évoquer le plan d’action du tout nouveau CCRI, son comité de coordination.

Vous pouvez d’ores et déja vous connecter ici pour soumettre des propositions de présentations et vous inscrire.

Ces contributions sont la raison d’être de ces Journées, permettant à chacun de (faire) connaître les projets conduits à l’IN2P3/IRFU et les problématiques auxquelles nous sommes tous confrontés. Tous les aspects de l’informatique peuvent être abordés : administration système et réseau, sites et applications web, réalisations logicielles pour l’administration ou la physique, online et offline, utilisation et opération de la grille, bonnes pratiques de mise en place de service et de développement, bureautique, outils collaboratifs, etc.

Les deux comités d’organisation et de programme sont actifs depuis le début de l’année pour la réussite de cette session des JIs. Cette année, l’IPHC en tant que laboratoire hôte est représenté par un comité local dynamique et motivé. Alors, autant le dire clairement du 29 septembre au 2 octobre, nous serons heureux de vous retrouver à Obernai sur le site des JIs.

Vous pourrez également suivre en direct les Journées Informatique de l’IN2P3 et de l’IRFU en vous connectant à l’adresse http://webcast.in2p3.fr/JI08/.