L’ensemble des activités de services informatiques à vocation scientifique de l’IAS est sous la responsabilité du centre IDOC (IAS Data and Operation Center). Le domaine d’activité d’IDOC recouvre la physique solaire, la physique planétaire et la cosmologie.
Les activités informatiques du centre IDOC et de l’IAS en tant que laboratoire sont réunies dans un seul service. En effet, une équipe informatique doit avoir une taille critique minimale pour qu’elle puisse développer des compétences de bon niveau dans l’ensemble des métiers informatiques d’aujourd’hui.
Une taille critique
Cette taille permet également de sécuriser les compétences et la connaissance de l’infrastructure.Elle autorise également une répartition plus équitable des tâches fastidieuses et des points plus motivants mais surtout de répondre sous une forme matricielle aux sollicitations des projets et activités.
Cette organisation permet de mutualiser plus naturellement les moyens matériels et logiciels, de mieux les standardiser et de réduire ainsi les sources possibles d’incidents.
Outre le contrôle de quatre (4) expériences spatiales en vol, IDOC met à la disposition des communautés thématiques les données issues de sept (7) pipe-lines de traitement. Au total, des données d’instruments de partenaires étant également disponibles, les jeux de données issus de vingt-trois (23) instruments spatiaux sont accessibles au travers de 5 interfaces principales qui autorisent une sélection ergonomique des informations recherchées.
Afin d’optimiser l’analyse des informations au sein de ces jeux de données, représentant un volume de plus de 500 TB, IDOC développe et met a disposition une palette d’outils d’aide a l’utilisateur.
Support de l’équipe ?
Pour garantir la pérennité des ces données, un ensemble de stratégies a été développé, qui vise à adapter la réponse apportée à la criticité des éléments à préserver.
Un principe de base commun consiste à dupliquer les données en utilisant les deux bâtiments du laboratoire distants d’une centaine de mètres, pour s’affranchir de la problématique d’un incident majeur (incendie, inondation,...).
Outre le lien réseau reliant les deux bâtiments, chacun dispose de son accès réseau indépendant vers le réseau de l’université Paris XI pour emprunter ensuite les liaisons de celle-ci vers RENATER.
L’exemple Planck HFI
L’exigence de réactivité dans le contrôle de l’un des instruments satellitaires (Planck HFI) a adjoint à ce dispositif offrant déjà un premier niveau de redondance, une ligne spécialisée et son backup sur un lien ADSL.
En effet, les opérations de certains des instruments d’observation des missions spatiales doivent être contrôlées par un centre d’opération situé dans le laboratoire concepteur de ces instruments. Les rôles de ces centres d’opérations, sélectionnés par exemple par le CNES, l’ESA ou la NASA, sont de contrôler et d’organiser les activités des instruments spatiaux, tout en assurant leur fonctionnement pérenne et la qualité des données scientifiques produites. Le centre d’opérations est lié contractuellement dans ses activités propres et dans ses relations avec les centres de contrôles satellitaires d’une part et les responsables scientifiques instrumentaux de l’autre. Il respecte les plans qualités associés aux instruments, délivre les produits finis et communique rapports et bilans de ses actes.
Voici ici plus détaillé, le contexte opérationnel de ce projet Planck dont le lancement a eu lieu au printemps 2009 et dont les phases de tests intensifs avaient sollicité de manière très prégnante les ressources du centre de données et d’opérations de l’IAS.
Le projet Planck a été retenu par l’Agence Spatiale Européenne pour effectuer la troisième mission de mesure du rayonnement primaire cosmologique. Ses résultats permettent de dresser une carte de l’Univers à ses débuts, de tester les théories existantes sur sa formation, et d’en déduire son âge.
Pour le contrôle de Planck HFI, évoluant à plus de 1 million de kilomètres de la terre, deux problématiques contraignent fortement le contexte :
D’une part, le satellite n’est "visible" depuis la terre que durant une période d’environ deux heures par jour, en raison de son positionnement et de la forte activité des deux antennes de 30 mètres de diamètre apte à dialoguer avec lui. Ces plages de visibilité omettent sans vergogne de tenir compte de paramètres comme la nuit, les jours fériés ou les vacances.
D’autre part, son fonctionnement technique, qui nécessite de refroidir en permanence à 100 mK et de manière extrêmement stable les détecteurs de l’instrument, est extrêmement sensible. Dit de manière plus triviale, l’un des frigos les plus froids de l’univers (composés de 4 ensembles cryogéniques imbriqués en poupée russe) a un tempérament de diva.
Chaque plage de visibilité doit être exploitée pour recueillir les données de la journée écoulée, valider la cohérence technique et scientifique des données produites et en cours de production (décalage alors d’une centaine de secondes entre la production à bord et la lecture des données), et réagir rapidement en cas d’incident.
Par conséquent, toute interruption du "pipe-line" de traitement pourrait se révéler dramatique pour la survie de l’instrument, ce qui explique les précautions prises pour assurer la continuité du réseau.
Chaque bâtiment héberge un ensemble de systèmes permettant de conduire indépendamment les traitements sur l’ensemble des données acquises dont le résultat est ensuite mis à la disposition des chercheurs pour analyse. Un rapport de qualité journalier est soumis à l’Agence Spatiale Européenne.
En conclusion, cette notion de redondance des traitements et des données, valide pour les activités de centre d’opération et de centre de données thématiques, est réalisée par des outils cluster de haute disponibilité, ou par des actions plus simples de synchronisation régulières.
Comme souvent en informatique, l’expérience prouve chaque jour qu’il faut contrôler la complexité de la réponse technique à une problématique pour en contrôler plus aisément le fonctionnement propre. Suivant ce principe, les basculements automatiques d’un système de traitement à un autre en cas de défaillance, ont été limités à des cas extrêmement précis et connus.
Un outil de surveillance et d’information, commun à l’ensemble de l’infrastructure, couvre l’ensemble des points critiques, permet une meilleure réactivité en cas d’incident, et assure la traçabilité des activités du centre.
Le centre prend également en compte les degrés de disponibilité et de sécurisation spécifiques exigées par les jeux de données, met en œuvre le contrôle et en assure la traçabilité.
G. Poulleau
Chef de service de l’IAS/INSU/IN2P3
Gilles POULLEAU