Séminaires précédents

Saisons précédentes


Saison 1: de Novembre 2014 à Juillet 2015

Saison 2: de Septembre 2015 à Juillet 2016

Saison 3: de Septembre 2016 à Juillet 2017





21 Septembre 2017  – Séminaire n°60 Contributions à la parallélisation de méthodes de type transport Monte-Carlo

Présentation par: Thomas Gonçalves, Doctorant au CEA

Salle Paul Gauguin, Ter@tec, 11h – durée: 45min.

Résumé

Les applications de transport de particules Monte-Carlo consistent à étudier le comportement de particules se déplaçant dans un domaine de simulation. La répartition des particules sur le domaine de simulation n’est pas uniforme et évolue dynamiquement au cours de la simulation. La parallélisation de ce type d’applications sur des architectures massivement parallèles amène à résoudre une problématique complexe de répartition de charges de calcul et de données sur un grand nombre de cœurs de calcul.

Nous avons d’abord identifié les difficultés de parallélisation des applications de transport de particules Monte-Carlo à l’aide d’analyses théoriques et expérimentales des méthodes de parallélisation de référence. Une approche semi-dynamique reposant sur des techniques de partitionnement a ensuite été proposée. Enfin, nous avons défini une approche dynamique capable de redistribuer les charges de calcul et les données tout en maintenant un faible volume de communication. L’approche dynamique a obtenu des accélérations en extensibilité forte et une forte réduction de la consommation mémoire par rapport à une méthode de réplication de domaine parfaitement équilibrée.

plaquette de diffusion

 


 

5 Octobre 2017  – Séminaire n°61 Resource-Management Study in HPC Runtime-Stacking Context

Présentation par: Arthur Loussert, Doctorant au CEA

Salle Valadon (RdC – au fond à gauche), Ter@tec, 11h – durée: 25min.

Résumé

With the advent of multicore and manycore processors as building blocks of HPC supercomputers, many applications shift from relying solely on a distributed programming model (e.g., MPI) to mixing distributed and shared-memory models (e.g., MPI+OpenMP), to better exploit shared-memory communications and reduce the overall memory footprint. One side effect of this programming approach is runtime stacking: mixing multiple models involve various runtime libraries to be alive at the same time and to share the underlying computing resources.

This presentation explores different configurations where this stacking may appear and introduces algorithms to detect the misuse of compute resources when running a hybrid parallel application. We have implemented our algorithms inside a dynamic tool that monitors applications and outputs resource usage to the user. We validated this tool on applications from CORAL benchmarks. This leads to relevant information which can be used to improve runtime placement, and to an average overhead lower than 1% of total execution time.

 

plaquette de diffusion

 


 

11 Décembre 2017  – Séminaire n°62 Équilibrage de charge pour les simulations multi-physiques par partitionnement multi-critères de graphe


Présentation par: Rémi Barat, Doctorant au CEA

Salle Valadon (RdC – au fond à gauche), Ter@tec, 14h – durée: 45min.

Résumé

Les simulations multi-physiques couplent plusieurs phases de calcul.

Pour des raisons mémoire ou pour réduire leur durée, elles sont lancées en parallèle sur plusieurs unités de calcul, en mémoire distribuée. Les phases de calcul sont en général séparées par des phases de communication, pour synchroniser les données entre les unités de calcul.

Afin de maximiser l’efficacité de la simulation, le partitionnement des données doit alors équilibrer la charge de travail entre les unités de calcul pour chaque phase de calcul, et aussi minimiser le surcoût dû aux phases de communication.

Pour les simulations reposant sur un maillage, ce problème peut être modélisé par celui du partitionnement multi-critères de graphe. Nous détaillerons ce modèle, et présenterons notre approche, qui a été implantée dans le logiciel de partitionnement Scotch. Cette approche se base sur notre analyse de l’espace des solutions, notamment sa taille et sa connexité, en combinant théorie et expérimentation.

 

plaquette de diffusion

 


18 Janvier 2018  – Séminaire n°63 Vérification et amélioration des applications parallèles: relever le défis de l’exascale


Présentation par: Emmanuelle Saillard, Chargée de Recherche à l’Inria Bordeaux Sud-Ouest

Salle Valadon (RdC – au fond à gauche), Ter@tec, 11h – durée: 45min.

Résumé

Le calcul haute performance (HPC) intervient dans de nombreux domaines de la science pour relever les défis sociaux du moment (ex., santé, environnement, sécurité). Il permet de simuler des phénomènes trop petits, grands, rapides, lents, chers ou encore trop dangereux à expérimenter (ex., comprendre l’univers, les maladies comme Alzheimer). Les simulations bénéficient de l’augmentation de la capacité de calcul des systèmes HPC et utilisent maintenant des modèles de plus en plus précis et réalistes. Mais ceci impose aux chercheurs d’appliquer des méthodes d’analyse complexes.

Avec la fin supposée de la loi de Moore, les scientifiques se tournent vers de nouvelles solutions pour obtenir des codes corrects, rapides et performants. Cette présentation proposera des méthodes afin d’aider au mieux les développeurs à corriger et améliorer leurs codes sur les machines de l’exascale.
plaquette de diffusion