Categories
seminaire passé seminar

[Seminar] October 24 2023 – Adéquation algorithme architecture pour l’accélération de méthodes d’inversion de données en grande dimension 🧑‍🏫 Nicolas GAC

🧑‍🏫 Nicolas Gac
🌎 Oct 24 2023
☕️ 10:00 AM
🏢 Maison de la Simulation, Batiment Digiteo Saclay, Salle Mandelbrot
🔗 slides

Résumé :

L’amélioration constante de la résolution des instruments parallèlement à la complexité croissante des méthodes de reconstruction basées sur des modèles de plus en plus précis, s’accompagne d’un besoin croissant en puissance de calcul. Les cartes accélératrices composées de GPU ou de FPGA sont une opportunité pour réduire l’écart technologique entre les systèmes d’acquisition et de reconstruction. Dans le contexte particulier de la résolution de problèmes inverses mal posés, mes travaux de recherche en adéquation algorithme-architecture visent à prendre en compte, en amont de la définition des méthodes, le potentiel et les limites des architectures d’accélération. Après une présentation du parallélisme offert par les architectures GPU et FPGA, le contexte algorithmique des méthodes bayésiennes et leur application en reconstruction tomographique seront présentés avec un focus sur l’accélération des opérateurs de projection/rétrojection utilisés en tomographie. Le projet ANR Dark-era portant sur l’accélération des calculs pour la radioastronomie sera ensuite présenté ; ce travail collaboratif vise à construire un outil de prototypage rapide fournissant des simulations exascales des futurs serveurs HPC nécessaires au traitement « temps réel » du flux de données massives du radiotélescope SKA. Enfin, des perspectives sur ces travaux seront exposées.

Categories
seminaire passé seminar

[SEMINAR] May 30 2023 – DENERGIUM 🧑‍🏫 Hervé MATHIEU

🧑‍🏫 Hervé MATHIEU – cofunder of DENERGIUM
🌎 May 30 2023
☕️ 4:00 PM
🏢 Maison de la Simulation, Batiment Digiteo Saclay, Salle Mandelbrot
🔗 https://www.linkedin.com/company/denergium/ 
🔗 https://www.denergium.com

Abstract

DENERGIUM est une startup créée début 2023. DENERGIUM est une entreprise technologique, un éditeur de logiciels et un acteur environnemental positif. DENERGIUM a pour mission de rendre plus efficace l’utilisation des infrastructures informatiques. Pour cela DENERGIUM s’appuie sur une technologie issue d’Inria, qui à partir de données énergétiques acquises dans un datacenter et d’algorithmes avancés (modèles mathématiques, IA) permet d’apporter des optimisations aux gestionnaires de datacenter mais aussi aux utilisateurs des datacenters. Notre marché est l’ensemble des infrastructures informatiques opérant du calcul massif (HPC, IA, BigData). DENERGIUM est accompagnée par Inria Startup Studio, Unitec et Ovhcloud startup program.

A partir d’une démonstration d’EnergyScopium optimize, nous pourrons échanger sur la problématique de l’optimisation énergétique dans l’usage des clusters de calcul : configuration matérielle et logicielle des serveurs, lancement des calculs, choix des bibliothèques logicielles, développement logiciel.

Categories
seminaire passé seminar

[SEMINAR] May 16 2023 – Development and GPU porting efforts for a high-performance low-Mach CFD solver based on unstructured adaptive grids 🧑‍🏫 Patrick BEGOU and Vincent MOUREAU

🧑‍🏫 Patrick BEGOU – Research Engineer at LEGI, UMR 5519
🧑‍🏫 Vincent MOUREAU, CNRS research fellow at CORIA, UMR6614
🌎 May 16 2023
☕️ 9:30 AM
🏢 Maison de la Simulation, Batiment Digiteo Saclay, Salle Mandelbrot

Abstract

With the steady increase of the power of parallel super-computers, 3D unsteady simulations offer a great potential to study turbulent flows. However, the simulation of highly non-linear phenomena such as turbulence, primary atomization or premixed flames requires very accurate numerical methods and high resolution to capture vortex and interface dynamics. While most direct numerical simulations of turbulent flows are carried out with structured grids or Cartesian-based Adaptive Mesh Refinement, recent advances in numerical methods for tetrahedron-based meshes and parallel mesh adaptation strategies raise the attractiveness of unstructured grids. The use of tetrahedra has two advantages for practical configurations: complex geometries are easily meshed and the mesh is locally more isotropic than Cartesian grids. The first part of the presentation will be focused on the development of highly-efficient dynamic adaptation of tetrahedron-based unstructured grids and on projection methods for low-Mach number flows which can cope with adaptive grids. The proposed methodology, which heavily relies on the remeshing library MMG (www.mmgtools.org) has been thoroughly optimized to reach good performances with grids of several billion cells on more than 10 000 cores. This dynamic mesh adaptation strategy has been implemented in the YALES2 code (www.coria-cfd.fr) and applied to the modeling of turbulent flows in many configurations. In these academic and industrial applications, the local mesh adaptation enabled a drastic reduction of the CPU cost compared to the fixed-grid approach and enabled to reach unprecedented mesh resolutions. The second part of the presentation will be dedicated to the efforts to port these methodologies to GPUs while continuing promoting fast development and innovation from a community of non-GPU experts.

Categories
seminaire passé

[SEMINAR] April 18 2023 – Quantum computers: What are they? What are they supposed to be good at? Will they work? 🧑‍🏫 by Xavier Waintal 

🧑‍🏫 Xavier Waintal, CEA Grenoble, PHELIQS
🌎 April 18 2023
☕️ 9:30 AM
🏢 Maison de la Simulation, Batiment Digiteo Saclay, Salle Mandelbrot

Abstract

In the last three decades, our ability to build and control quantum states has improved dramatically and could become the basis of a new form of numerical calculation. While these machines are still in their infancy  (no existing quantum computer can multiply 5 by 3), the hope is that for a very specific class of problem, they could be exponentially faster than their classical counterpart. In this talk, I will give an introduction to quantum computing from the point of view of a physicist. In particular I will emphasize how the main quantum computing ressource, entanglement, is also its biggest problem, decoherence.

Categories
seminaire passé seminar

[SEMINAR] March 2023 – Data-driven modelling of hypersonic flows in non-equilibrium 👩‍🏫 Taraneh Sayadi

👩‍🏫 Taraneh Sayadi – d’Alembert, Sorbonne University ITV, RWTH-Aachen University
🌎 March 9 2023

Abstract:

At very large Mach numbers, fluid flows are strongly influenced by non-equilibrium gas effects such as finite-rate chemical reactions or internal mode excitation arising from extreme temperatures. These effects have an order-one influence on quantities of interest, such as stability properties, transition and heating and must be taken into account to achieve effective designs, reliable predictions, and successful flow control.  Accurate simulations of these flows rely on detailed thermochemical gas models (look-up libraries), which dramatically increase the cost of the underlying calculations. In this talk I will first present state-of-the-art detailed simulations of such complex flows and the incurring cost, motivating the second part of the talk where I will present a novel model-agnostic data-driven technique to extract a surrogate of the thermochemical models, reducing the cost of the simulations considerably while maintaining accuracy. 

Slides:

Categories
Non classé seminaire passé seminar

[SEMINAR] January 2023 – Simulations numériques ab initio de l’irradiation ionisante de la matière 🧑‍🏫 Auréllien de la Lande

🧑‍🏫 Aurélien de la Lande, CNRS
🌎 January 25 2023

Nous avons développé à l’Institut de Chimie Physique d’Orsay des approches de simulation ab initio originales pour simuler le dépôt d’énergie par des ions rapides ou des photons XUV dans des systèmes moléculaires de grandes tailles, tels que ceux rencontrés en biologie1. Durant ce séminaire, nous intro- duirons les équations du mouvement des électrons dans le cadre de la théorie de la fonctionnelle de la densité2. 

Nos codes de simulation reposent sur de nouveaux algorithmes de la théorie de la fonctionnelle de la densité dépendant du temps permettant de simuler des systèmes de taille nanométrique et inhomo- gènes3,4. L’une des astuces principales est de recourir à des densités électroniques auxiliaires permettant de calculer la répulsion coulombienne et les effets liés à la nature quantique des électrons (échange et corrélation). Le couplage avec la librairie ScaLapack permet une réduction importante du cout de calcul du propagateur3. Pour aller plus loin une interface avec la libraire Magma a récemment été réalisée. La réduction du coût de calcul est remarquable et permet d’entrevoir des applications sans précédent en terme de taille de systèmes simulés. 

J’illustrerai l’apport de ces approches par diverses études récentes du groupe. Un premier exemple a trait à l’irradiation comparée d’oligomères d’ADN solvatés par des protons, de noyaux d’hélium ou de carbone (Fig. 1)5. L’étude a permis de mettre en évidence des processus clés de l’étape physique de l’irradiation ; par exemple le mécanisme d’ionisation par flux-et-reflux du nuage électronique, la localisation des électrons secondaires ou encore les probabilités d’ionisation des bases d’ADN ou du solvant5. Dans un second exemple je mettrai en évidence un effet de taille remarquable lors le processus d’ionisation d’acide aminés, de peptides et de protéines par des photons ionisant XUV. Cette découverte permet de faire des hypothèses sur les sites d’ionisation primaires possibles du milieu cellulaire par ce type de rayonnement. 

Categories
Non classé seminaire passé

[SEMINAR] January 2023 – Vers une accélération de la mise à l’équilibre des modèles de climat 👩‍🏫 by Julie DESHAYES

👩‍🏫 Julie Deshayes, CNRS
🌎 January 2023

Abstract:

La modélisation du climat terrestre est incontournable pour planifier l’adaptation et la mitigation du changement climatique. La réalisation de scénarios du climat futur a un coût numérique conséquent, même à basse résolution spatiale (de l’ordre de 1°). L’essentiel de la consommation en calcul et stockage est consacrée à la mise à l’équilibre du modèle (en particulier sa composante océanique) et à la calibration des paramètres. En collaboration avec Martial Mancip, et grâce au soutien du programme PNRIA du CNRS, nous avons commencé à élaborer une solution, basée sur des méthodes innovantes (statistiques avancées et issues de l’intelligence artificielle), pour accélérer la mise à l’équilibre de l’océan du modèle de climat de l’IPSL. L’idée est de disposer d’un modèle d’inférence qui extrapole une série de pas de temps de simulation (en mois/années), puis réinjecte la solution extrapolée dans le modèle climatique pour effectuer de nouvelles étapes de simulation. Ces deux étapes seraient répétées autant de fois que nécessaire pour obtenir un algorithme stable qui converge vers une solution physiquement admissible comparable aux équilibres complets, tout en réduisant considérablement le nombre de pas de temps calculés explicitement avec le modèle. La réduction du temps de calcul explicite par le modèle climatique (opéré sous CPU), qui est plus coûteux que l’inférence par les techniques de Data Science (réalisée sous GPU), conduit à une amélioration de la frugalité du calcul numérique de la modélisation climatique.

Categories
seminaire passé

[SEMINAR] March 2020 – Two-level Coarse Corrected Optimized Schwarz Methods using PETSc 🧑‍🏫 Serge Van Criekingen

🧑‍🏫 Serge Van Criekingen, IDRIS, France
🌎 March 2020

Abstract

Parallel Schwarz-type domain decomposition methods are based on an iterative process where, at each iteration, a local solve is simultaneously performed on each of the (possibly overlapping) subdomains, using interface values previously computed on neighboring subdomains. The reference method in this framework is the Restricted Additive Schwarz (RAS) method, implemented as a preconditioner in the PETSc library. Using existing PETSc tools, we here implement two improvements to this method: a new coarse correction to obtain a two-level scalable method, as well as optimized transmission conditions, resulting in an Optimized 2-level Restricted Additive Schwarz method.

The first improvement, namely the introduction of a coarse correction to insure scalability, is wellknown and due to that fact that, in the case of elliptic problems, information is only transferred from each subdomain to its direct neighbors at each iteration of a 1-level method such as RAS. This makes the number of iterations grow with the number of subdomains. Scalability is achieved by introducing a coarse grid on which a reduced-size calculation is performed, yielding a coarse correction at each iteration of the solution process. Such a 2-level method permits global propagation of the iterative corrections throughout the entire domain, leading to the scalability of the method. Many choices for the coarse grid point locations are possible, and we here follow a method introduced by M.J. Gander et al. yielding a reduced number of iterations.

The second improvement, namely optimized transmission conditions, stems from the idea that the transmission conditions used in the iterative process at subdomain interfaces can also be chosen such as to reduce the number of iterations. In our case, we consider Robin transmission conditions instead of the classical Dirichlet ones, i.e. a well-chosen combination of Dirichlet and Neumann values at subdomain interfaces. A good choice of the Robin coefficient representing the relative weight of Dirichlet and Neumann values permits minimizing the number of iterations, which led to the name Optimized Schwarz Methods.

We combine these two improvements and apply them to a 2D Laplace test case up to 16,384 CPU cores. We obtain substantially improved computation times, comparable to the ones obtained with the multigrid library HYPRE interfaced by PETSc. This is significant in that Schwarz-type domain decomposition methods were up to now not considered competitive with multigrid methods on this type of problem. Furthermore, we extend the method to non-symmetric problems, adding an advection term to the Laplacian, and investigate various ways of adapting the coarse space.

Categories
seminaire passé

[SEMINAR] March 2019 – Emulating quantum computers 🧑‍🏫 Victor Alessandrini

🧑‍🏫 Victor Alessandrini, Maison de la Simulation, France
🌎 March 2019

Abstract:

There is today increasing consensus on the fact that quantum computing – an emerging data processing technology – may in the future play a significant role (with not yet fully understood boundaries) in high performance scientific computing. The simulation of quantum computers on standard computing platforms is today a necessary step to understand, assess, and develop quantum algorithms for computation, paving the way for the eventual future adoption of this disruptive technology. Emulation software will remain useful for some time to validate results of the earlier quantum computing platforms, and to help tuning application quantum codes. We will present a fully portable C++ emulation library under development for more than one year. The library disposes of three interfaces: a shared memory version running on SMP nodes, a MPI extension enabling access to a larger number of qubits, and a Python wrapper of the C++ library. A significant pedagogical effort is implemented in the documentation. Besides the traditional C++ class documentation, we are producing strategic higher level documentation and pedagogical papers on applications, including Jupyter notebooks. This seminar will propose first an introduction to quantum computing, explaining the fundamental differences with classical computing, underlining the strong features as well as the limiting bottlenecks of the technology. We will present next a short and very high level overview of the emulation library, focusing on a few major strategic choices. Then, the issues involved in quantum algorithms will be illustrated with a quantum chemistry example used in the validation tests of the software. Finally, we will conclude with a rapid overview of different areas in which quantum algorithm research is evolving (quantum chemistry, condensed matter physics, combinatorial optimization, fault tolerant quantum computing,…).

Categories
Non classé seminaire passé

[SEMINAR] February 2019 – Hercules 🧑‍🏫 Olivier Bressand

🧑‍🏫 Olivier Bressand, CEA-DAM, France
🌎 February 2019

Abstract

Hercules is a CEA-DAM platform for managing data produced by simulation codes. It integrates different I/O services to read, write in parallel database in the framework of protection / recovery, intercode (coupling or code sequence) and post-processing (visualization and analysis). It is based on a data model that covers many domains of simulation (structured, unstructured, AMR-block, AMR-tree based, multi-fluid, laser, atom, Euler, Lagrange, ale, 1D, 2D, 3D) and provides services to produce, filter, and disaggregate data in the sequential or parallel HPC application.