- En quoi consiste le projet SNLS ?
Il s’agit d’un sondage du ciel utilisant des télescopes optiques, dont le but
était de découvrir des centaines de supernovae distantes et de mesurer leur distance et décalage vers le rouge. Ces mesures permettent de contraindre l’évolution du taux d’expansion de l’univers avec le temps, que la Relativité Générale relie à son contenu.
A la fin des années 1990, c’est par cette méthode qu’a été mise en évidence l’accélération (inattendue) de l’expansion de l’univers, que l’on attribue depuis à "l’énergie noire" qui dominerait aujourd’hui la composition de l’univers. En pratique, nous avons imagé de manière répétitive quatre champs sur le ciel pour y découvrir et mesurer les supernovae, à l’aide de la caméra grand champ Megacam placée au foyer primaire du Télescope Canada-France-Hawaii de 3.6 m (www.cfht.hawaii.edu). Ces observations ont consommé plus de 200 nuits entre 2003 et 2008 et engendré environ 20 000 images de science (et un peu plus de calibration). Il s’agit du plus gros programme jamais réalisé avec ce télescope. Il a fallu un temps d’observation comparable sur des télescopes de 8 m et plus pour acquérir des spectres des supernovae, pour les identifier et mesurer leur décalage vers le rouge.
Les observations ont été coordonnées par une collaboration internationale
réunissant canadiens et français, et des participations plus dispersées d’autres pays d’Europe et des Etats-Unis. En France, les utilisateurs du Centre sont au CPPM et au LAM (Laboratoire d’Astronomie de Marseille), au SPP de Saclay, et au LPNHE.
- Quels ont été les derniers résultats publiés par la collaboration ?
La collaboration a publié les premiers résultats de cosmologie à la fin de 2005 basés sur la première année de données (http://www2.cnrs.fr/presse/communiq...).
Ce lot de 71 supernovae distantes reste le plus précis publié à ce jour, grâce à la qualité de la caméra Megacam sur le CFHT. Ce lot sera bientôt supplanté par un peu plus de 200 supernovae collectées durant les trois premières années du sondage. Dans les deux cas, le résultat central est que la densité d’énergie noire n’évolue pas (ou guère) avec le temps cosmique. Si la précision et la qualité des résultats s’améliore au cours des années, il est certain que nous ne pensions pas initialement devoir pousser l’analyse dans autant de détails. Nous publions beaucoup plus régulièrement des résultats qui intéressent moins directement la cosmologie. (http://snls.in2p3.fr/conf/)
- Quelle place occupe l’informatique dans le projet ?
Le volume de données à manipuler semble aujourd’hui modeste : 40 à 50 Tb. C’est très gros dans le monde de l’astronomie. Mais contrairement à un flot d’évènements issu d’une expérience de physique des particules, on doit ici accéder aux données de plusieurs manières différentes et pas "linéaires". Cela nécessite des disques de gros volume, et si possible performants. Avec l’informatique qu’un laboratoire peut implémenter,
nous n’aurions traité les données qu’une fois. Ce que permet le CC-IN2P3, c’est de revenir dessus, d’essayer des algorithmes différents à grande échelle, et que plusieurs équipes puissent solliciter simultanément le réservoir de données pour des analyses différentes. Les disques sont maintenant assez volumineux pour contenir deux jeux d’images : celles utilisées pour produire de la science, et le jeu de développement.
- Quels sont en particulier les services utilisés par l’expérience SNLS ?
L’aspect central pour nous, ce sont les disques. Au début du projet début 2003, nous utilisions des disques servis par NFS. Ces disques ont été ensuite remplacés par un système GPFS qui a eu quelques problèmes
de jeunesse aujourd’hui oubliés : je ne me rappelle plus du dernier incident. C’est Loic Tortay (du Centre de Calcul de l’IN2P3/CNRS) qui a veillé sur nos données pendant ces années.
Nous calculons naturellement sur la ferme Anastasie. Comme nous avons certains traitements élémentaires qui ne consomment que quelques secondes de calcul, nous avons adapté notre modèle de traitement pour qu’un job BQS puisse exécuter un grand nombre de traitements élémentaires. Nous sommes certainement de petits joueurs pour le volume CPU, mais peut-être pas pour les entrées-sorties depuis et vers GPFS. Le système soutient les besoins d’une centaine de processeurs et nous permet de produire l’ensemble de la photométrie des supernovae en environ 1 mois. Nous utilisons HPSS à la fois pour la sauvegarde et l’archivage.
Même si nos besoins sont loin de ceux de Babar ou Atlas, ils sont au delà de ce que l’informatique locale d’un laboratoire peut (encore aujourd’hui) raisonnablement implémenter. Ils sont bien couverts par le CC-IN2P3, qui a su s’adapter à nos contraintes techniques en particulier en s’équipant de gros volumes de disque. Alors que SNLS était pionnier dans ce type de
demande au CC-IN2P3, "nos" disques représentent aujourd’hui une modeste fraction de l’ensemble du volume GPFS : d’autres utilisateurs envisagent donc de nouvelles manières de parcourir leurs données, et ils ne font pas tous de l’astronomie...
La partie française de SNLS aura finalement utilisé trois grands instruments : le CFHT, le VLT (Very Large Telescope) de l’ESO, et le Centre de Calcul de l’IN2P3/CNRS. Le CC-IN2P3 semble d’ailleurs avoir pris goût à ce type de calculs puisqu’il s’est engagé dans le projet LSST.
PROPOS RECUEILLIS PAR GAËLLE SHIFRIN