Categories
seminaire passé seminar

[SEMINAR] March 2023 – Data-driven modelling of hypersonic flows in non-equilibrium 👩‍🏫 Taraneh Sayadi

👩‍🏫 Taraneh Sayadi – d’Alembert, Sorbonne University ITV, RWTH-Aachen University
🌎 March 9 2023

Abstract:

At very large Mach numbers, fluid flows are strongly influenced by non-equilibrium gas effects such as finite-rate chemical reactions or internal mode excitation arising from extreme temperatures. These effects have an order-one influence on quantities of interest, such as stability properties, transition and heating and must be taken into account to achieve effective designs, reliable predictions, and successful flow control.  Accurate simulations of these flows rely on detailed thermochemical gas models (look-up libraries), which dramatically increase the cost of the underlying calculations. In this talk I will first present state-of-the-art detailed simulations of such complex flows and the incurring cost, motivating the second part of the talk where I will present a novel model-agnostic data-driven technique to extract a surrogate of the thermochemical models, reducing the cost of the simulations considerably while maintaining accuracy. 

Slides:

Categories
Non classé seminaire passé seminar

[SEMINAR] January 2023 – Simulations numériques ab initio de l’irradiation ionisante de la matière 🧑‍🏫 Auréllien de la Lande

🧑‍🏫 Aurélien de la Lande, CNRS
🌎 January 25 2023

Nous avons développé à l’Institut de Chimie Physique d’Orsay des approches de simulation ab initio originales pour simuler le dépôt d’énergie par des ions rapides ou des photons XUV dans des systèmes moléculaires de grandes tailles, tels que ceux rencontrés en biologie1. Durant ce séminaire, nous intro- duirons les équations du mouvement des électrons dans le cadre de la théorie de la fonctionnelle de la densité2. 

Nos codes de simulation reposent sur de nouveaux algorithmes de la théorie de la fonctionnelle de la densité dépendant du temps permettant de simuler des systèmes de taille nanométrique et inhomo- gènes3,4. L’une des astuces principales est de recourir à des densités électroniques auxiliaires permettant de calculer la répulsion coulombienne et les effets liés à la nature quantique des électrons (échange et corrélation). Le couplage avec la librairie ScaLapack permet une réduction importante du cout de calcul du propagateur3. Pour aller plus loin une interface avec la libraire Magma a récemment été réalisée. La réduction du coût de calcul est remarquable et permet d’entrevoir des applications sans précédent en terme de taille de systèmes simulés. 

J’illustrerai l’apport de ces approches par diverses études récentes du groupe. Un premier exemple a trait à l’irradiation comparée d’oligomères d’ADN solvatés par des protons, de noyaux d’hélium ou de carbone (Fig. 1)5. L’étude a permis de mettre en évidence des processus clés de l’étape physique de l’irradiation ; par exemple le mécanisme d’ionisation par flux-et-reflux du nuage électronique, la localisation des électrons secondaires ou encore les probabilités d’ionisation des bases d’ADN ou du solvant5. Dans un second exemple je mettrai en évidence un effet de taille remarquable lors le processus d’ionisation d’acide aminés, de peptides et de protéines par des photons ionisant XUV. Cette découverte permet de faire des hypothèses sur les sites d’ionisation primaires possibles du milieu cellulaire par ce type de rayonnement. 

Categories
Non classé seminaire passé

[SEMINAR] January 2023 – Vers une accélération de la mise à l’équilibre des modèles de climat 👩‍🏫 by Julie DESHAYES

👩‍🏫 Julie Deshayes, CNRS
🌎 January 2023

Abstract:

La modélisation du climat terrestre est incontournable pour planifier l’adaptation et la mitigation du changement climatique. La réalisation de scénarios du climat futur a un coût numérique conséquent, même à basse résolution spatiale (de l’ordre de 1°). L’essentiel de la consommation en calcul et stockage est consacrée à la mise à l’équilibre du modèle (en particulier sa composante océanique) et à la calibration des paramètres. En collaboration avec Martial Mancip, et grâce au soutien du programme PNRIA du CNRS, nous avons commencé à élaborer une solution, basée sur des méthodes innovantes (statistiques avancées et issues de l’intelligence artificielle), pour accélérer la mise à l’équilibre de l’océan du modèle de climat de l’IPSL. L’idée est de disposer d’un modèle d’inférence qui extrapole une série de pas de temps de simulation (en mois/années), puis réinjecte la solution extrapolée dans le modèle climatique pour effectuer de nouvelles étapes de simulation. Ces deux étapes seraient répétées autant de fois que nécessaire pour obtenir un algorithme stable qui converge vers une solution physiquement admissible comparable aux équilibres complets, tout en réduisant considérablement le nombre de pas de temps calculés explicitement avec le modèle. La réduction du temps de calcul explicite par le modèle climatique (opéré sous CPU), qui est plus coûteux que l’inférence par les techniques de Data Science (réalisée sous GPU), conduit à une amélioration de la frugalité du calcul numérique de la modélisation climatique.

Categories
seminaire passé

[SEMINAR] March 2020 – Two-level Coarse Corrected Optimized Schwarz Methods using PETSc 🧑‍🏫 Serge Van Criekingen

🧑‍🏫 Serge Van Criekingen, IDRIS, France
🌎 March 2020

Abstract

Parallel Schwarz-type domain decomposition methods are based on an iterative process where, at each iteration, a local solve is simultaneously performed on each of the (possibly overlapping) subdomains, using interface values previously computed on neighboring subdomains. The reference method in this framework is the Restricted Additive Schwarz (RAS) method, implemented as a preconditioner in the PETSc library. Using existing PETSc tools, we here implement two improvements to this method: a new coarse correction to obtain a two-level scalable method, as well as optimized transmission conditions, resulting in an Optimized 2-level Restricted Additive Schwarz method.

The first improvement, namely the introduction of a coarse correction to insure scalability, is wellknown and due to that fact that, in the case of elliptic problems, information is only transferred from each subdomain to its direct neighbors at each iteration of a 1-level method such as RAS. This makes the number of iterations grow with the number of subdomains. Scalability is achieved by introducing a coarse grid on which a reduced-size calculation is performed, yielding a coarse correction at each iteration of the solution process. Such a 2-level method permits global propagation of the iterative corrections throughout the entire domain, leading to the scalability of the method. Many choices for the coarse grid point locations are possible, and we here follow a method introduced by M.J. Gander et al. yielding a reduced number of iterations.

The second improvement, namely optimized transmission conditions, stems from the idea that the transmission conditions used in the iterative process at subdomain interfaces can also be chosen such as to reduce the number of iterations. In our case, we consider Robin transmission conditions instead of the classical Dirichlet ones, i.e. a well-chosen combination of Dirichlet and Neumann values at subdomain interfaces. A good choice of the Robin coefficient representing the relative weight of Dirichlet and Neumann values permits minimizing the number of iterations, which led to the name Optimized Schwarz Methods.

We combine these two improvements and apply them to a 2D Laplace test case up to 16,384 CPU cores. We obtain substantially improved computation times, comparable to the ones obtained with the multigrid library HYPRE interfaced by PETSc. This is significant in that Schwarz-type domain decomposition methods were up to now not considered competitive with multigrid methods on this type of problem. Furthermore, we extend the method to non-symmetric problems, adding an advection term to the Laplacian, and investigate various ways of adapting the coarse space.

Categories
seminaire passé

[SEMINAR] January 2023 – Gestion des IO parallèle en modélisation du climat – la bibliothèque XIOS 🧑‍🏫 Yann MEURDESOIF

🧑‍🏫 Yann Meurdesoif, Researcher at the Laboratoire des Sciences du Climat et l’Environnement (LSCE)
🌎 January 2023

Abstract:

XIOS est un nouvel outil développé à l’IPSL (Institut Pierre Simon Laplace) destiné à gérer efficacement les sorties fichiers des modèles de simulations climatiques. Il vise deux principaux objectifs :

  • Souplesse d’utilisation, grâce à une description externe des I/O sous forme d’un fichier XML hiérarchisé et d’une API fortran permettant de compléter ces informations à partir des codes.
  • Performance : des cœurs de calculs sont exclusivement dédiés à la gestion des écritures via une technologie client/serveur, les données étant transmises des clients (code de calcul) vers les serveurs (cœurs I/O) par des communications MPI asynchrones non bloquantes. L’écriture des fichiers se fait alors en tâche de fond, en même temps que les calculs. Lors des phases d’écriture, XIOS exploite également le parallélisme du système de fichier via l’utilisation des bibliothèques netcdf4/hdf5 parallèle, permettant à plusieurs processus d’écrire simultanément dans un même fichier, et agrégeant ainsi la bande passante I/O vers les supports matériels.

Slides:

Categories
Non classé seminaire passé

[SEMINAR] December 2012 – Software optimization for petaflops/s scale Quantum Monte Carlo simulations 🧑‍🏫 by Anthony SCEMAMA

🧑‍🏫 Anthony Scemama, Research Engineer at the Laboratoire de Chimie et de Physique Quantiques of IRSAMC
🌎 December 2012

Quantum chemistry is known to be one of the grand challenges of modern science since many fundamental and applied fields are concerned (drug design, micro-electronics, nanosciences,…). To investigate all these fascinating problems is a tremendous task since highly accurate solutions of the fundamental underlying Schrödinger equation for a (very) large number of electrons need to be determined. The use of Quantum Monte Carlo methods is an emerging alternative approach to usual methods since they can take advantage of massively parallel architectures. In this talk the QMC=Chem program we develop in Toulouse will be presented, as well as the different strategies we used to reach the petaflops/s scale.

Slides :