Regard vers le futur : approchons-nous des limites de la puissance des supercalculateurs ?

Jean-Pierre Panziera, Directeur technologies HPC, Bull

 

Dans notre série consacrée aux supercalculateurs, nous avons porté notre attention sur des projets en cours de développement, et nous avons souligné les défis à relever pour passer à la prochaine génération de supercalculateurs. Et pourtant, l'un des principaux casse-têtes des ingénieurs est la question des limites à l’accroissement de la puissance.

 


Traditionnellement, dès que nous avions atteint un niveau de puissance cible, nous prenions des objectifs pour le suivant. En 1997, nous avons installé les premiers systèmes Teraflops, puis nous nous sommes immédiatement mis à parler de systèmes en Petaflops. Dès que nous avons lancé en 2008 les systèmes Petaflops, commença le défi de systèmes Exaflops, qui pourront traiter un milliard de milliards d'opérations par seconde. Dès l'installation du premier système Exaflops, ce sera au tour du Zettaflops (soit une machine mille fois plus rapide qu'une Exaflops !). Alors, quelle sera la prochaine étape des supercalculateurs ?

La question n'est pas de savoir si nous allons atteindre des limites, mais quand. La puissance des supercalculateurs n'est pas infinie. Bientôt, nous allons atteindre un stade où il nous sera impossible d'augmenter la puissance de traitement avec les technologies actuelles. Deux facteurs y contribuent.

Les limites de la loi de Moore
L'augmentation de la puissance des supercalculateurs a été rendue possible par la miniaturisation continue des transistors. Ils ont diminué plus de mille fois au cours des 50 dernières années : dans les années 60, ils se mesuraient en dizaines de micromètres, aujourd'hui ils se mesurent en dizaines de nanomètres.  Imaginez une tête d'épingle. Elle fait un million de nanomètres sur sa largeur ; les nanomètres sont donc minuscules en comparaison et ne peuvent pas être visibles à l'œil nu. Il faut avoir un microscope à électrons !

Les puces actuellement utilisées dans les processeurs font entre 14 et 28 nm. La « loi de Moore » prévoit que le nombre de transistors sur une surface donnée double environ tous les deux ans, en même temps que la performance de la puce. Les puces mesureront 10 nm en 2017, 7 nm en 2020 et 5 nm en 2030. Mais avec le silicium, il nous est concrètement impossible de faire plus petit que 5 nm sans développer de nouveaux matériaux.

Une plus grande puissance informatique est-elle nécessaire ?
Étant donné que les sommes indispensables pour développer de nouvelles technologies pour les supercalculateurs sont astronomiques, les investissements ne sont réalisés que pour une bonne raison ou justification. Bien sûr, s'il existe un besoin d'augmenter la puissance, le budget suivra toujours. Cependant, nous avons déjà assez de puissance pour régler la grande majorité des problèmes. Donc, la question se pose de savoir si nous avons besoin d'aller plus loin, et si oui, pourquoi.

Au cours des dix prochaines années environ, la puissance des supercalculateurs va atteindre une limite. Mais cela ne marquera pas la fin des supercalculateurs. Regardez le secteur de l'aviation, par exemple. Ces trente dernières années n'ont vu aucun progrès en termes de vitesse (en fait, il y a eu une régression après la fin du Concorde) mais de grandes améliorations dans d'autres domaines. La consommation d'énergie est moindre, le bruit a été réduit et la sécurité a augmenté. Ironiquement, tous ces changements ont été rendus possibles par les supercalculateurs !

 

Nous contacter

Atos
Plus d'infos
trans-1-px
Notre site internet utilise des cookies. En poursuivant votre visite sur notre site, vous acceptez que nous utilisions des cookies. Ces derniers nous permettent
de comprendre comment notre site internet est utilisé. Nous pouvons ainsi mieux le configurer. Si vous refusez que nous utilisions des cookies, vous pouvez
bloquer leur utilisation en configurant votre navigateur tel qu’expliqué dans notre Politique Vie Privée
J'accepte Plus d'informations