Le forum ORAP a lieu tous les six mois en France et il est à mes yeux, presque l’équivalent européen de la conférence Super-Computing qui se tient aux États-Unis ! Des chercheurs en informatique viennent y présenter leurs travaux (nouveaux algorithmes hautes performances, nouvelles architectures ou micro-architectures machine, nouveaux cas d’utilisation, nouvelles méthodes de génération de code, nouvelles méthodes d’adaptation d’un code à une architecture données, etc.) dans des domaines variés, tels que la physique des particules (simulation de trajectoire de particules chargées dans différents milieux), l’astrophysique (problème à N corps) mais aussi, la biologie (calcul de dose pour des patients, simulation du cerveaux humain, simulation de forêts), la physique des plasmas, la mécanique des fluides, la simulation de population, etc.
Personnellement, je travaille sur le projet ESFRI H2020 ASTERICS et je suis allé à tous les forums ORAP depuis la 35ème édition. Le contenu est, à chaque fois, très instructif. Le 39ème forum s’est tenu en mars dernier au siège du CNRS ; le 40ème annoncé pour la mi-octobre est « à ne pas manquer ».
Aujourd’hui, le constat est sans appel : la moyenne de l’utilisation du processeur par toutes les applications dans le monde est inférieure à 4%, et les applications dédiées à l’analyse des données physique n’échappent pas à la règle. Mon travail consiste à fournir des fonctions ultra-optimisées et des méthodes de création de format de données qui vont permettre des calculs rapides et qui utilisent le processeur à 100% dans tous les cas !
En règle générale, les applications présentées dans le cadre des forums ORAP font chacune une utilisation différente des architectures informatiques existantes (CPU, GPU, GPGPU, FPGA, multicore, manycore et architectures hybrides) et c’est là tout l’intérêt !
Tous ces retours d’expériences me semblent utiles pour mettre au point des outils d’analyse qui seront utilisés, notamment dans les expériences du programme ASTERICS, telles que CTA, SKA ou LSST. Ces expériences, de par leur conception, posent le problème de l’analyse de données à une échelle 1000 fois supérieure que celle des expériences précédentes. Ils sont utiles à relativement court terme car ils rendent compte d’une utilisation particulière d’architectures relativement bien connues et utilisables, ce qui permet d’orienter à quelques années les développements pour leur permettre de ne pas tomber dans une totale obsolescence comme ce fut le cas de plusieurs programmes d’analyse par le passé.
Mais lorsque l’on parle d’expériences maintenues pendant 30 ans, comme CTA ou LSST, il est indispensable d’avoir aussi une vision à long terme. Lors des forums ORAP, les présentations les plus attendues sont celles des grands industriels du domaine de l’informatique hautes performances, tel que Intel, Nvidia ou Bull qui présentent leurs futures architectures CPU, GPU et centre de calcul respectivement. D’autres industriels tel que Google, Facebook ou Total, présentent les méthodes qu’ils utilisent pour traiter massivement les données qu’ils reçoivent chaque seconde (par exemple 100 heures de vidéo toutes les secondes sur Youtube). Ces retours sont importants car ils nous permettent d’envisager ce que seront les flux de données des expériences CTA ou LSST, et d’avoir une première estimation des architectures à utiliser pour résoudre ce genre de problème.
D’autres informations cruciales proviennent des plus grands centres de calcul au monde. Par exemple, lors du forum ORAP du 28 octobre 2016 a été présenté le retour d’expérience sur le plus grand centre de calcul au monde, en Chine. Ce super calculateur a une puissance de 93Tflops et a été testé avec des algorithmes de calcul LAPACK (multiplication matrice-matrice, matrice-vecteur, vecteur-vecteur, décomposition SVD, QR, etc). Ce test a révélé que les algorithmes actuels rencontrent des problèmes de passage à l’échelle lorsque l’on se rapproche de la barrière des 100 Tflops. Ce résultat n’est absolument pas intuitif et ne pouvait pas être mis en évidence qu’avec un test réel sur une machine existante. L’accès à ce genre de résultat peut se révéler très utile pour qui souhaite définir les architectures des futurs centres de calcul utilisés pour des expériences du programme ASTERICS comme du monde HEP.
Pierre AUBERT (LAPP)