- Michel, tu viens d’être nommé chairman du GDB, peux-tu nous rappeler en quelques mots ce qu’est ce GDB ?
GDB veut dire Grid Deployment Board. Réuni une fois par mois, c’est un des comités du projet WLCG qui coordonne l’informatique des expériences LHC. Cette informatique repose uniquement sur la grille, en fait trois infrastructures de grilles : EGI en Europe, OSG aux Etats-Unis, NorduGRID dans les pays nordiques (+ la Slovénie !). A l’origine le GDB a été créé pour coordonner le déploiement des services grilles en vue de leur utilisation par les expériences LHC. A ce titre, il regroupe les principaux sites offrant des ressources à WLCG (en particulier le CERN et les T1s) et les quatre expériences LHC ainsi que la coordination technique de WLCG localisée au CERN. Depuis le début de la prise de données en 2010, le GDB a évolué en une coordination technique entre les sites et les expériences où sont discutés les principaux problèmes et où se discute les évolutions techniques. Les sujets discutés concernent les services utilisés par les expériences et non pas l’administration du site proprement dit : en ce sens, le GDB est très complémentaire de HEPiX avec lequel il entretien des liens explicites.
Ce n’est pas une structure décisionnelle avec une représentation formelle des expériences mais plutôt un forum où s’élaborent des consensus sur lesquels s’appuieront d’éventuelles décisions du Management Board. En France les principaux participants sont un représentant du CC et la direction technique de LCG France, la « branche française » de WLCG.
- Quel impact peut avoir le GDB sur les structures de calcul actuel ?
L’influence directe du GDB se limite aux ressources WLCG. Pour WLCG, c’est le lieu où s’élabore les solutions techniques mises en œuvre par les sites. Comme pour beaucoup de sites, WLCG est un client majeur, cela façonne certains choix des sites. Pour optimiser la gestion, ceux-ci essayent généralement de mutualiser les solutions. Indirectement le GDB peut donc avoir aussi une influence sur certains services offerts à d’autres communautés mais cela ne fait pas parti de ses missions.
Ceci dit, les sites n’ont pas à redouter de comportements arbitraires du GDB. Le GDB a pour mission de fournir aux expériences LHC une infrastructure informatique stable et fiable. De ce point de vue, le GDB est plutôt conservateur ! Toute évolution est décidée de façon à permettre une continuité de service. C’est assez important dans une infrastructure distribuée à l’échelle de la grille.
Pour illustrer ces propos, un exemple : l’authentification dans la grille repose sur les certificats. Les certificats actuels utilisent un algorithme d’encryptage de la clé privé qui s’appelle SHA1. Il se trouve qu’avec l’augmentation de la puissance de calcul disponible aujourd’hui, SHA1 commence à être considéré comme vulnérable et il va falloir utiliser SHA2 qui est plus complexe et donc plus difficile à casser. Pour différentes raisons, cette transition est complexe et nécessite la mise à jour d’un certain nombre de services avant la première utilisation d’un encryptage SHA2. Le GDB joue un rôle moteur sur ce problème mais bien évidemment il ne peut pas le faire sans concertation avec les différentes grilles, EGI, … car cela aura un impact pour tout le monde à relativement court terme.
- Comment vois-tu l’évolution du calcul pour les années à venir, entre autre avec l’upgrade du LHC ?
Je ne suis pas sûr que l’upgrade du LHC en 2018 est un facteur déterminant de l’évolution. C’est encore trop loin. La principale motivation pour les évolutions prévues à court et moyen terme est plutôt l’expérience acquise depuis le démarrage de la prise de données. Contrairement à ce que certains redoutaient, l’infrastructure informatique des expériences LHC reposant sur la grille a relevé le défi et a permis une analyse rapide de toutes les données acquises. Mais derrière ce succès se cache une complexité importante qui nécessite un effort humain non négligeable pour obtenir le niveau de service requis. Avec la baisse des budgets et des moyens humains partout, il est indispensable de simplifier l’opération des services. Dans certains cas, il peut s’agir d’améliorer le service lui-même, dans d’autres cas cela passe par une refonte plus importante d’un service. Avec deux ans d’expérience, nous sommes maintenant dans une bonne position pour analyser ce qui est inutilement complexe ou ce qui n’est pas assez fonctionnel ou flexible.
Un autre axe de l’évolution consiste à prendre en compte l’explosion de la problématique « Big Data » dont le LHC a été précurseur. Il y a 10 ans, il a fallu tout inventer. Aujourd’hui un certain nombre de services et protocoles standards sont disponibles pour traiter les besoins des expériences LHC. Notre volonté est donc de favoriser de plus en plus l’utilisation de ces solutions en remplacement des solutions spécifiques WLCG.
Enfin, nous devons prendre en compte que la technologie qui concentre les efforts aujourd’hui est le cloud. Le cloud, c’est à la fois des offres commerciales et une technologie qui s’appuie sur la virtualisation. Il est probable qu’à l’avenir de plus en plus de ressources seront mises dans le cloud plutôt que dans la grille. Malheureusement le cloud n’est pas une alternative à la grille et la réflexion est en cours pour déterminer comment la grille et/ou les expériences peuvent tirer parti efficacement de ressources de type cloud.
- D’après toi, quel est l’impact de ces évolutions pour le calcul au sein de l’IN2P3 et de l’IRFU ?
Pour le court terme, je pense que l’impact restera assez faible. Il existe un réseau de compétences solide, habitué à gérer les ressources grilles et les évolutions régulières des services. La simplification des services en cours a vraiment pour but de simplifier la vie des sites !
A un peu plus longue échéance, si la grille évolue pour permettre l’utilisation de ressources de type cloud, cela peut impacter les services mis en œuvre par les sites. De plus, il n’est pas complètement évident que dans ces évolutions, la forte distribution des ressources, avec des sites de taille très différente, persiste. On verra peut être une évolution de la « géographie » des ressources et cela pourrait impacter le réseau de compétences très diffus qui fait une des forces de la grille en France et que je tends à considérer comme une des réussites de la grille. Cette grande capillarité de l’expertise grille bénéficie aux utilisateurs qui ont des experts près d’eux. Mais sur ce point, je pense que l’évolution de la politique nationale a au moins autant de poids, sinon plus, que le GDB…
Lien utile : http://lcg.web.cern.ch/lcg/gdb.htm.
PROPOS RECUEILLIS PAR E. LEGAY