Traiter le déluge de données : la course à l'exascale - Philippe Vannier, CTO, Atos

Traiter le déluge de données : la course à l'exascale

Philippe Vannier, CTO, Big Data et Sécurité, Atos

 

Rien n'illustre mieux la rapidité des progrès technologiques que les avancées en calcul haute performance.

La performance des ordinateurs, mesurée en flops (FLoating-point Operations Per Second), a évolué bien plus vite que nous n'aurions pu l'imaginer. En 1961, le coût d'un matériel capable d'assurer un seul gigaflops (un milliard d'opérations par seconde) aurait coûté l'équivalent de 8 300 milliards de dollars. Aujourd'hui, un iPhone 6, par exemple, a une capacité d'environ 172 gigaflops !

 


En 2005, Bull a construit Tera10, un cluster de supercalculateurs d'une puissance supérieure à 60 teraflops, soit soixante mille milliards d'opérations par seconde. Jusqu'en 2008, il s'agissait d'une des machines les plus rapides du monde. Ce record est désormais détenu par Tianhe-2, une machine capable d'atteindre 34 petaflops. Pour vous donner un ordre de grandeur, même si chacun des 320 millions d'habitants des Etats-Unis se mettait à réaliser un calcul par seconde, il leur faudrait plus de 3 ans pour traiter les données que Tianhe-2 peut traiter en moins d'une seconde !

Un développement crucial

Le calcul haute performance (HPC) est essentiel à notre époque. Selon les prévisions, 40 trillions de giga-octets de données seront générés à l'horizon 2020, impliquant le besoin d'outils plus rapides pour traiter, analyser et utiliser ces informations.

Aujourd'hui, nous travaillons en collaboration avec le CEA à Tera1000 : une gamme de supercalculateurs capables d'assurer un exaflops. Il est difficile de quantifier la puissance d'une telle machine : avec un quintillion (10^18) d'opérations par seconde, il faudrait plus de 5,8 millions d'iPhone travaillant ensemble pour égaler sa vitesse.

Bull – 2015

Cependant, pour construire des supercalculateurs, notre réflexion doit aller au-delà des considérations de rapidité. La consommation d'électricité et les besoins en alimentation doivent également tenir une place prépondérante. Avec l'étape de l'exaflops à l'horizon 2020, notre premier prototype sera opérationnel dans deux ans seulement et aura une capacité de calcul de 25 petaflops, pour une consommation électrique 20 fois inférieure à notre modèle précédent Tera100 (à capacité égale).

Son impact potentiel est incalculable. Il peut révolutionner le processus de test et de développement d'un nombre illimité de domaines d'activités. Le secteur de l'automobile, par exemple, a recours de façon extensive au numérique pour concevoir ses produits. Pour le prix d'un crash test physique, les chercheurs sont en mesure d'effectuer des centaines de crashs numériques, en outre d'une précision bien plus grande, car chaque aspect peut être mesuré et renseigné. Dans d'autres domaines, la puissance de Tera1000 peut marquer la fin des tests sur les animaux, ou même permettre de mieux comprendre le fonctionnement de notre cerveau.

En définitive, la nécessité d'une puissance et d'une vitesse de calcul plus grandes sont des préoccupations récurrentes. L'évolution vers les supercalculateurs exascale pourrait rendre ces préoccupations obsolètes.

Nous contacter

Atos
Plus d'infos
trans-1-px
Notre site internet utilise des cookies. En poursuivant votre visite sur notre site, vous acceptez que nous utilisions des cookies. Ces derniers nous permettent
de comprendre comment notre site internet est utilisé. Nous pouvons ainsi mieux le configurer. Si vous refusez que nous utilisions des cookies, vous pouvez
bloquer leur utilisation en configurant votre navigateur tel qu’expliqué dans notre Politique Vie Privée
J'accepte Plus d'informations