b2
   ENGLISH
 Contacts  
 Accès
 

> Accueil > La recherche > Dossiers thématiques > Calcul haute performance

Les avancées scientifiques reposent de plus en plus sur la simulation numérique, qui suscite en retour des besoins croissants en calcul haute performance.

A l’occasion d’une conférence récente, consacrée à la simulation prévisionnelle du climat, les scientifiques ont solennellement appelé à une mobilisation internationale autour de cette question, à l’échelle de ce qui a été consenti pour l’exploration du génome humain. Un élément clé de ce projet d’envergure serait une infrastructure de calcul réservée aux climatologues du monde entier, d’une puissance sans commune mesure avec ce qui existe aujourd’hui. Pour cette seule communauté, il faudrait multiplier par 100 000 la puissance de calcul aujourd’hui disponible pour atteindre l’« exaflop », c’est-à-dire le milliard de milliards d’opérations par seconde. C’est encore une vue de l’esprit, qui pourrait ne se concrétiser que d’ici une vingtaine d’années. Mais la route est tracée, les enjeux sont colossaux.

L’exemple des prédictions climatiques

Aujourd’hui, la simulation du climat se contente d’une résolution de l’ordre de 200 kilomètres. « L’objectif est d’atteindre une précision kilométrique, précise Sylvie Joussaume, directrice adjointe du LSCE2. Avec une telle résolution, il deviendrait possible, par exemple, de prendre en compte le relief et les nuages et de modéliser les phénomènes climatiques extrêmes. » L’avènement de capacités de calcul futuristes permettrait également d’enrichir la complexité du modèle climatique pour le rendre plus réaliste qu’il ne l’est aujourd’hui. « Les modèles actuels décrivent les couplages entre l’atmosphère, l’océan et la végétation et ne prennent encore que peu en compte les écosystèmes et le cycle du carbone, explique Sylvie Joussaume. Alors qu’il faudrait galement introduire de manière plus complète la végétation, la biologie océanique, le cycle de l’eau et celui du carbone. »

Modélisateurs, mathématiciens et informaticiens

De nombreuses autres thématiques scientifiques (fusion nucléaire contrôlée, physique des particules, biologie, etc.) s’appuient fortement sur la simulation numérique. Celle-ci ne peut progresser que si les efforts des technologues, des modélisateurs, des mathématiciens et des informaticiens convergent vers un objectif commun.

Après avoir accumulé du retard dans leurs équipements en superordinateurs, la France et l’Europe se mobilisent dans ce domaine très compétitif où, très vite, un record chasse l’autre. La création du Centre national Jacques- Louis Lions, né de l’union des forces du CNRS et du CEA, va favoriser la candidature du site de Bruyères-le-Châtel, pour recevoir, à partir de 2010, un superordinateur du meilleur niveau mondial, financé en partie par l’Union européenne.

CALCUL HAUTE PERFORMANCE ET SIMULATION

La simulation numérique permet de réaliser des « expériences virtuelles » à mi-distance entre expérience et théorie. Dans de très nombreux cas, le calcul haute performance en est l’outil incontournable.

La connaissance scientifique progresse par la confrontation entre expériences et modèles théoriques. La simulation numérique est une sorte d’expérience virtuelle dont il est commode de faire varier les paramètres. Elle repose sur un modèle théorique qui décrit plus ou moins fidèlement le phénomène réel simulé. Sa mise en oeuvre peut être motivée soit par la collecte d’un grand nombre de résultats, soit par la validation du modèle théorique qui la fonde.

« La modélisation, les mathématiques et l’informatique sont des composantes majeures du calcul haute performance. »

Sans se substituer complètement à l’expérience, elle permet de réduire son usage, et donc son coût, en démultipliant ses bénéfices. Avec les progrès fulgurants des calculateurs, sa pratique s’est généralisée à toutes les disciplines, fondamentales et appliquées, au point de devenir en quelque sorte le « troisième pilier » de la science, aux côtés de l’expérimentation et de la théorie. Certaines simulations nécessitent le traitement d’un nombre colossal de données, ou utilisent un modèle couplant de nombreux phénomènes, ou encore font appel à des équations particulièrement complexes dont la résolution numérique nécessite une grande puissance de calcul. Dans tous ces cas, des temps de calculs qui atteindraient des milliers d’années avec un ordinateur de bureau peuvent être ramenés à quelques semaines en recourant à un superordinateur. Mais le calcul haute performance ne se résume pas à la technologie du seul superordinateur : la modélisation, les mathématiques et l’informatique en sont des composantes majeures.

Des contraintes physiques

Simulation astrophysique de chercheurs de l’Irfu (Institut de recherche sur les lois fondamentales de l’Univers du CEA, à Saclay)

Un superordinateur est en réalité composé de très nombreux calculateurs élémentaires semblables à l’unité centrale d’un PC, qui sont reliés entre eux. Pour être efficaces, ceux-ci doivent être capables d’échanger des données à chaque étape de calcul et de dialoguer avec la mémoire, sans dégrader la performance intrinsèque du processeur.

Les accès à la mémoire et la vitesse des échanges entre processeurs, qui ne peut pas excéder la vitesse de la lumière, sont des éléments clés de la performance du superordinateur. Les liaisons entre calculateurs, en particulier, doivent être aussi courtes que possible. C’est là qu’intervient une autre contrainte qui pèse lourdement sur la conception de ces machines : les calculateurs consomment beaucoup d’électricité et dissipent des quantités de chaleur phénoménales, qu’il faut absolument évacuer pour préserver le matériel !

Le saviez-vous ?

Les superordinateurs passent sous la toise tous les six mois. La vitesse de traitement des opérations, mesurée pour un cas test standardisé, permet d’établir un palmarès, baptisé Top500. Elle s’exprime en flops (Floating Point Operations Per Second). Aujourd’hui, l’unité usuelle est le téraflop (un million de millions d’opérations par seconde) et deviendra bientôt le pétaflop (un million de milliards d’opérations par seconde). Si l’étymologie de téra évoque l’image d’un monstre, le suffixe péta n’a qu’une connotation mathématique : 1015 est égal à 1 0005. Rêvons un peu : après le pétaflop, viendra l’exaflop, soit mille pétaflops. C’est ce qui permettra de simuler le fonctionnement d’un corps humain entier !

Le saviez-vous ?

La finance est aussi une grande utilisatrice de calcul haute performance. Les financiers ont besoin de grandes capacités de calcul pour explorer de multiples scénarios d’évolution des marchés et optimiser les portefeuilles boursiers.

Le saviez-vous ?

Google a installé une plateforme de 500 000 processeurs dans l’état américain où l’électricité est la moins chère : l’Oregon !