Discover 2017 : Le Superdome Flex exploite jusqu’à 48 To de mémoire

Au coeur du Superdome Flex, les technologies d’exploitation de la mémoire partagée développées par HPE sont maintenant conjuguées aux capacités d’évolution modulaire mises au point par SGI. Le système haute performance va être exploité par l’équipe du physicien britannique Stephen Hawking pour leurs recherches en cosmologie.

Antonio Neri, président et prochain CEO de Hewlett Packard Enterprise, a annoncé le Superdome Flex sur Discover 2017 dont les châssis sont reliés par la technologie Numalink de SGI. (crédit : HP)

En direct de Madrid – Le système haute performance Superdome Flex, qui figure aux premiers rangs des annonces de Hewlett Packard Enterprise sur Discover 2017 à Madrid, a été présenté deux semaines plus tôt à l’occasion de la conférence HPC Supercomputing 2017 (à Denver cette année). Conçu pour tirer le meilleur parti des bases de données en mémoire, il permet d’analyser d’énormes volumes de données sur des applications susceptibles de devoir en absorber beaucoup plus au fil du temps, et à livrer les résultats de ses analyses en temps réel. Dans le domaine de la recherche académique, notamment, l’un des premiers utilisateurs du Superdome Flex est la faculté de mathématiques de l’Université de Cambridge et le centre de cosmologie théorique du physicien britannique Stephen Hawking. Sur Discover, HPE a annoncé un partenariat avec Cosmos pour plonger dans les origines de l’espace et du temps en explorant des jeux de données couvrant 14 milliards d’années d’informations. A la  faculté de mathématiques de Cambridge, le nouveau système haute performance vient compléter un équipement qui comprend déjà un supercalculateur Apollo et des systèmes à base de processeurs Intel Xeon Phi. 

D’ores et déjà disponible, le Superdome Flex combine les technologies du Superdome X qui l’a précédé et celles du constructeur SGI que HPE a racheté l’an dernier. Aucun des deux constructeurs n’aurait pu le bâtir seul, a mentionné lors d’un point presse Randy Meyer directeur général des gammes Synergy et serveurs haut de gamme. Et sa conception modulaire – à la Lego, comme l’a décrit Randy Meyer – doit permettre aux clients de faire face à l’évolution constante de leurs besoins. Le Superdome tire profit des principes d’exploitation de la mémoire que HPE a développé dans le cadre de son projet The Machine « memory-driven » : les ressources de calcul requises par les applications traitant d’énormes quantités de données accèdent à un pool de mémoire à travers des connexions à haute vitesse. De SGI, le Superdome Flex reprend les capacités d’évolutivité du système UV300, renommé Integrity MC990X, dont la technologie Numalink d’interconnexion à haute vitesse entre les différents modules du système. Mais le nom de Numalink, bien connu du monde HPC, a été modifié par HPE, on ne le retrouve donc pas sur les spécifications techniques. Le Superdome Flex permet de partir d’une plateforme équipée de 4 sockets et 6 To de mémoire pour monter, en connectant 8 modules, jusqu’à 32 sockets et 48 To de mémoire par incrément de 4 sockets. Ce faisant, il multiplie par 2,3 les capacités d’évolution de la génération précédente du Superdome. Les utilisateurs qui exploiteront le système, dans un cadre académique ou industriel, pourront donc faire évoluer leur puissance de traitement à mesure que l’avalanche des données à traiter augmente sur leurs applications, « sans changer une seule ligne de code », a assuré Antonio Neri, président et prochain CEO de HPE, lors de la session plénière de Discover 2017 à Madrid. 

Le Superdome Flex modulaire présenté sur Discover 2017.

Le « memory-driven » au service des chercheurs du DZNE à Bonn

Par châssis au format 5U, le Superdome Flex exploite 4 processeurs Xeon d’Intel (famille Platinum 8XXX et Gold 6XXX) et jusqu’à 6 To de mémoire HPE DDR4, en embarquant jusqu’à 16 slots d’extension. Dans un billet, Sharad Singhal, directeur Machine Software & Applications du HP Labs, donne certaines précisions sur le fonctionnement de la mémoire partagée sur cette plateforme. « Normalement, le système fait tourner une seule instance d’un OS et fonctionne comme une machine scale-up. Toutefois, il est aussi possible de faire tourner plusieurs instances d’OS en partitionnant le système (…) et ce que je trouve le plus intéressant, c’est que les partitions pourront partager la mémoire à travers les OS en utilisant le fabric de mémoire ». De ce fait, il est possible de présenter les ressources de mémoire partagée à toutes les applications tournant sur différents OS comme une ressource commune. 

Le pool de mémoire est partagé au sein du Superdome Flex. (crédit : HPE)

Sur Discover, pour illustrer l’utilisation de sa technologie « memory-driven », HPE a par ailleurs fait témoigner Joachim Schultze, professeur de génomique et d’immuno-régulation de l’Institut de Sciences médicales (LIMES) à l’Université de Bonn en Allemagne dont l’équipe pluridisciplinaire du DZNE étudie les maladies neurodégénératives par l’analyse des big data. En collaboration avec HPE, les chercheurs ont adapté l’algorithme de DZNE pour le pré-traitement des données génomiques pour exploiter le pool de mémoire partagé, ici mis en oeuvre sur un système Integrity Superdome X. En accédant ainsi directement à la mémoire, les délais de traitement sont passés de 22 minutes à 2,5 minutes puis à 69 secondes. En modifiant encore le code, les calculs ont pu descendre jusqu’à 3 secondes pour certains traitements. 

chevron_left
chevron_right