Faire face aux grands défis des supercalculateurs

Xavier Vigouroux, Bull HPC

Tandis que nous cherchons à faire avancer l'industrie, la science et la société, les super-ordinateurs occupent de plus en plus le devant de la scène. Nous avons déjà parlé de certains des projets en place aujourd'hui, mais quels sont les obstacles qu'il nous faut surmonter afin de faire passer les supercalculateurs au niveau supérieur ?

 

 

La consommation d'électricité
La gestion de la consommation d'électricité est une priorité clé pour les ingénieurs des super-ordinateurs, afin de gérer l'appétit insatiable de ces machines. Les super-ordinateurs d'aujourd'hui consomment plus de 10 mégawatts, ce qui équivaut à l'électricité nécessaire pour approvisionner 30 000 foyers en électricité ! Le prix de l'électricité n'est pas non plus donné en Europe. Chaque année, chaque mégawatt consommé coûte environ 1 million d'euros.  

Les propriétaires européens de super-ordinateurs se voient donc poussés à chercher des solutions plus efficaces en énergie. À l'avenir, nous verrons des machines capables de traiters plusieurs milliards d'opérations par seconde, tout en consommant la même quantité d'électricité qu'à l'heure actuelle (10 mégawatts). Afin que les super-ordinateurs futurs ne soient pas trop coûteux, des organismes sont en train d'élaborer des normes environnementales. Par exemple, le Département de l'énergie a fixé une limite supérieure de 20 mégawatts pour les nouvelles conceptions de systèmes Exascale.

En interne, nous nous intéressons à ce défi en travaillant avec la Technische Universität Dresden sur un projet de recherche intitulé High Definition Energy Efficiency Monitoring ou HDEEM (supervision à haute définition de l'efficacité énergétique) et en mesurant la consommation d'électricité des machines de calcul à haute performance (High Performance Computing, HPC). Avec une base de données de mesure basée sur logiciel, l'efficacité énergétique de chaque machine peut être supervisée toutes les deux millisecondes, permettant aux chercheurs d'analyser et d'améliorer les codes HPC d'utilisateurs parallèles.  

Un refroidissement amélioré
Les superordinateurs nécessitent un bon fonctionnement des systèmes de refroidissement. Cela aussi consomme beaucoup d'électricité. En fait, les systèmes de refroidissement font souvent grimper la facture d'électricité de 50 à 75 %. Les géants de la technologie, en conséquence, se tournent vers le cercle arctique. Google, par exemple, investit plus de 1 milliard de dollars dans son centre de données de Hamina en Finlande. Avec son accès à l'énergie géothermique et hydro-électrique, son refroidissement gratuit et sa connectivité qui se compte en millisecondes avec l'Amérique et l'Europe, l'Islande (photo) est aussi en train de devenir un lieu de plus en plus prisé pour les centres de données.

Chez Bull, nous utilisons un système de refroidissement basé sur l'eau chaude, qui est recommandée la Commission européenne en tant que solution cible pour les centres informatiques à grande échelle du futur. Les mécanismes traditionnels de refroidissement nécessitent des unités de réfrigération, tandis que maintenir l'eau à environ 35°C permet d'utiliser un système de refroidissement gratuit toute l'année.

Le fossé des compétences en supercalculateurs
La communauté européenne de superinformatique est confrontée à une autre difficulté : le manque d'individus ayant les compétences informatiques exigées pour la programmation superinformatique. Chez Bull, nous avons tenté de traiter le problème en lançant notre Centre d'excellence en programmation parallèle (Centre for Excellence in Parallel Programming, CEPP), le premier centre européen de son genre pour l'excellence industrielle et technique. Dans le cadre du CEPP, nous avons formé une équipe d'ingénierie de 300 personnes à venir en aide aux utilisateurs par l'amélioration de l'efficacité de leurs super-ordinateurs.

Le développement de nouveaux micro-processeurs
Il y a cinq ans, il aurait été facile de définir ce qu'était un super-ordinateur : des milliers de nodes étroitement réunis grâce à un processeur unité centrale. Pourtant, ces systèmes ne sont pas assez rapides pour supporter le traitement de milliards d'opérations par seconde indispensable aux superordinateurs les plus puissants d'aujourd'hui. En conséquence, de nouveaux micro-processeurs sont en train d'être mis au point. Les processeurs graphiques (GPU), des architectures puissantes mais complexes normalement utilisées dans le jeu vidéo, sont en train de devenir un choix apprécié pour ceux qui cherchent à concevoir des machines à haute performance. D'autres se ciblent sur le parallélisme, qui permet l'exécution simultanée de milliards d'opérations !

Dans notre prochain article, nous nous pencherons sur l'avenir des supercalculateurs, et nous nous demanderons si nous atteindrons jamais une limite de puissance de traitement.  
BIO
Xavier Vigouroux est titulaire d'un doctorat en informatique distribuée de l'École normale supérieure de Lyon. Il a occupé différents postes pour plusieurs grandes sociétés. Il travaille désormais chez Bull depuis neuf ans. Il a dirigé l'équipe de benchmarking de HPC (high-performance computing, informatique à haute performance) pendant cinq ans, puis s'est chargé du marché « éducation et recherche » pour HPC. Il dirige désormais le  « Centre d'excellence en programmation parallèle » (Center for Excellence in Parallel Programming, CEPP).

Nous contacter

Atos
Plus d'infos
trans-1-px
Notre site internet utilise des cookies. En poursuivant votre visite sur notre site, vous acceptez que nous utilisions des cookies. Ces derniers nous permettent
de comprendre comment notre site internet est utilisé. Nous pouvons ainsi mieux le configurer. Si vous refusez que nous utilisions des cookies, vous pouvez
bloquer leur utilisation en configurant votre navigateur tel qu’expliqué dans notre Politique Vie Privée
J'accepte Plus d'informations