L’exascale est l’aboutissement actuel du long processus d’évolution du calcul sur ordinateur. La performance d’un ordinateur se mesure en nombre d’« opérations flottantes », multiplications et/ou additions, qu’il peut réaliser par seconde et plus précisément, sur les nombres réels codés sur 64 bits. On note Flops/s cette unité.
Sur nos téléphones portables ou ordinateurs personnels, pour naviguer toujours plus rapidement sur Internet ou bien pour visualiser interactivement des vidéos, on compte en milliards d’opérations par seconde (giga). Sur les machines les plus grosses, c’est en puissances de milles. Giga est la troisième puissance (1 0003 soit 109), puis viennent dans l’ordre tera, peta et exa. Ces préfixes du système international des unités sont des déformations du grec tetra, penta et hexa, elles sont ainsi assez faciles à mémoriser. L’exascale correspond donc à l’échelle des superordinateurs dont la capacité de calcul dépasse 10 puissance 18 Flops/s.
Le calcul à haute performance (HPC) vise l’exécution le plus rapidement possible d’applications scientifiques comme la simulation nucléaire ou la météorologie. Les besoins en calcul dépassant les capacités humaines sont apparus pendant la Seconde Guerre mondiale et sont toujours en augmentation depuis, avec la numérisation massive de la société et la mondialisation.
L’histoire du calcul à haute performance a suivi les grandes étapes technologiques depuis l’invention des circuits intégrés au début des années 60 jusqu’aux technologies 5 nanos récentes. Les processeurs vectoriels apparaissent dans les années 70. Ils sont conçus sur un jeu d’instructions réduit qui fonctionne efficacement sur de grandes collections de données homogènes. À partir des années 80, on assiste au développement du parallélisme avec en particulier les multiprocesseurs massivement parallèles, grand nombre d’unités de calcul…
La suite est à lire sur: theconversation.com
Auteur: Denis Trystram, Professeur des universités en informatique, Université Grenoble Alpes (UGA)