Categories
highlight job

[JOB] PhD. 👩‍💻🧑‍💻 – Multigrid algorithms tuning using AI for the solution of linear systems

Etablissement : Université Paris-Saclay GS Ingormatique et sciences du numérique
École doctorale : Sciences et Technologies de l’nformation et de la Communication
Spécialité : Informatique mathématique
Unité de recherche : Mdls – Maison de la Simulation

Encadrement de la thèse : Nahid EMAD PETITON
Co-Directeur : Thomas DUFAUD

Description de la problématique de recherche – Project description

La performance des simulateurs a un impact direct à la fois sur la qualité des résultats de simulation, avec la précision souhaitée et sur la capacité d’explorer une grande variété d’hypothèses scientifiques. Dans un grand nombre de simulateurs numériques, la résolution de systèmes linéaires, très souvent mal conditionnés, constitue l’étape la plus consommatrice en temps de calcul (jusqu’à 80% de la simulation).

Les méthodes multigrilles font partie des solveurs et des préconditionneurs efficaces et puissants pour la résolution de grands systèmes linéaires mal conditionnés. Cependant, le paramétrage optimal de ces méthodes ; tels que l’algorithme de lissage, les schémas de correction, le choix des opérateurs de restriction dépend du problème à traiter et oriente fortement l’efficacité numérique de cette famille de méthodes. De plus, il existe plusieurs algorithmes multigrilles, comprenant différents algorithmes de lissage tels que Jacobi et Gauss- Seidel, différents schémas de correction tels que V-Cycle, W-Cycle et différents opérateurs de prolongation/restriction. Le choix des différents algorithmes et le réglage fin de ces paramètres améliore le taux de convergence de cette famille de méthode et influence le temps de calcul sur l’architecture cible type CPU, GPU ou TPU. L’expertise de l’utilisateur dans la sélection des paramètres est critique pour une utilisation optimale de ces méthodes.

En partant de ce constat, l’objectif du travail de recherche proposé est de concevoir et d’utiliser des techniques d’apprentissage afin de trouver pour la méthode multigrille algébrique de meilleurs paramétrages à la fois pour les problèmes linéaires et non linéaires à 2-3 dimensions. Les études ciblées seront issues de deux grandes catégories de simulations : la dynamique des fluides et l’écoulement en milieu poreux. Parmi les applications sélectionnées, nous pouvons évoquer les modélisations Fluide-particules, Géomécanique, et séquestration du Co2, avec pour chacune des systèmes différents à résoudre.

Simulator performance has a direct impact both on the quality of simulation results, with the desired accuracy, and on the ability to explore a wide variety of scientific hypotheses. In a large number of numerical simulators, the resolution of linear systems, which are very often poorly conditioned, is the most time-consuming stage of the process (up to 80% of the simulation).
Multigrid methods are among the most efficient and powerful solvers and preconditioners for solving large, ill-conditioned linear systems. However, the optimal parameterization of these methods, such as the smoothing algorithm, the correction schemes and the choice of restriction operators, depends on the problem to be solved and strongly influences the numerical efficiency of this family of methods. In addition, there are several multigrid algorithms, including different smoothing algorithms such as Jacobi and Gauss-Seidel, different correction schemes such as V-Cycle, W-Cycle and different extension/restriction operators. The choice of different algorithms and the fine-tuning of these parameters improves the convergence rate of this family of methods and influences the computation time on the target CPU, GPU or TPU architecture. User expertise in parameter selection is critical for optimal use of these methods.
With this in mind, the aim of the proposed research work is to design and use learning techniques to find better parameterizations for the algebraic multigrid method, for both linear and non-linear 2-3-dimensional problems. The targeted studies will be drawn from two broad categories of simulations: fluid dynamics and porous media flow. Selected applications include fluid-particle modeling, geomechanics and Co2 sequestration, each with different systems to solve.

Context

La simulation numérique est un outil complémentaire aux études expérimentales permettant de comprendre finement les phénomènes physiques complexes. C’est aussi une aide importante pour la mise au point et l’évaluation de solutions techniques innovantes et prospectives. Elle est ainsi au cœur de nombreux domaines tels que la mécanique des fluides, la conception de matériaux ou les géosciences.

Dans un grand nombre de simulateurs numériques, la résolution de systèmes linéaires, très souvent mal conditionnés, constitue l’étape la plus consommatrice en temps de calcul (jusqu’à 80% de la simulation). Les préconditionneurs employés voient leurs performances variées en fonction des paramètres choisis. L’expertise de l’utilisateur dans la sélection des paramètres est ainsi nécessaire pour une utilisation optimale de ces méthodes.

Dans ce projet, nous nous intéressons aux systèmes linéaires issus de la discrétisation d’un problème de poisson à coefficients variables. Ce problème est au cœur de nombreuses méthodes numériques pour la simulation d’écoulements de type Darcy ou Navier-Stockes. Les méthodes multigrilles algébriques (AMG) sont parmi les plus efficaces pour résoudre les systèmes linéaires associés à la discrétisation de cette équation sur des maillages non structurés. Ces méthodes emploient des opérateurs de “smoothing” pour réduire les composantes à haute fréquence de l’erreur, des opérateurs de restriction pour projeter le problème sur des grilles grossières et enfin des opérateurs de prolongation pour revenir sur les tailles de grilles fines initiales. Chacune de ces étapes, ainsi que leur ordonnancement en cycles, dispose de nombreux paramètres à sélectionner (type de smoother et nombre d’itérations, choix des opérateurs de restriction et prolongation pour tenir compte de la variabilité des coefficients de l’équation, ou encore agencement des cycles multigrilles) (Briggs et al.). Le paramétrage optimal de ces méthodes dépend fortement du problème physique modélisé et représente une difficulté importante dans leur adoption.

Il est ainsi nécessaire de développer des méthodes d’apprentissage permettant d’accélérer la convergence des méthodes multigrilles, soit en obtenant un paramétrage optimal de méthodes existantes, soit en imitant directement les méthodes existantes. De nombreux travaux récents se sont engagés dans ces deux voies :
– Opérateurs de projection : (Katrutsa et al.) et (Greenfeld et al.) proposent des méthodes d’apprentissage non supervisées pour optimiser le paramétrage des opérateurs de prolongation et restriction des méthodes multigrilles géométriques (GMG) à deux niveaux avec une fonction coût permettant de minimiser le rayon spectral de la matrice d’itération. (Luz et al.) étendent ces travaux à des méthodes AMG en utilisant des Graph Neural Networks (GNN) pour gérer les maillages non structurés.

– Smoother : (Hsieh et al.) proposent une méthode d’apprentissage supervisée basée sur des Convolutional Neural Networks (CNN) et l’architecture U-Net afin d’apprendre une correction à l’algorithme de Jacobi tout en conservant les garanties de convergence. (Huang et al.) étendent ces travaux à l’optimisation du smoother de Jacobi dans les méthodes GMG.
Ces travaux s’appuient notamment sur le parallèle développé par (He et al.) entre les méthodes multi-grilles et les réseaux de convolution. En effet, le passage d’une grille grossière à une grille fine (et inversement) peut être vu comme une étape de filtrage d’un CNN.

Les résultats observés montrent une accélération d’un facteur 2 à 10 de la convergence des algorithmes existants tout en conservant d’excellentes propriétés de généralisation. Cependant, ces travaux sont limités à des étapes spécifiques des méthodes multigrilles et ont pour cible principale les méthodes GMG, restreignant leur utilisation aux maillages structurés sur des problèmes simplifiés.
L’objectif principal de ce travail de thèse est de développer des méthodes d’apprentissage pour la résolution des systèmes linéaires préconditionnés issus de la discrétisation sur maillages non structurés du problème de Poisson à coefficients variables. Ces méthodes doivent permettre d’accélérer la convergence des algorithmes multigrilles sur des architectures matérielles hétérogènes.

La simulation numérique est un outil complémentaire aux études expérimentales permettant de comprendre finement les phénomènes physiques complexes. C’est aussi une aide importante pour la mise au point et l’évaluation de solutions techniques innovantes et prospectives. Elle est ainsi au cœur de nombreux domaines tels que la mécanique des fluides, la conception de matériaux ou les géosciences.

Dans un grand nombre de simulateurs numériques, la résolution de systèmes linéaires, très souvent mal conditionnés, constitue l’étape la plus consommatrice en temps de calcul (jusqu’à 80% de la simulation). Les préconditionneurs employés voient leurs performances variées en fonction des paramètres choisis. L’expertise de l’utilisateur dans la sélection des paramètres est ainsi nécessaire pour une utilisation optimale de ces méthodes.

Dans ce projet, nous nous intéressons aux systèmes linéaires issus de la discrétisation d’un problème de poisson à coefficients variables. Ce problème est au cœur de nombreuses méthodes numériques pour la simulation d’écoulements de type Darcy ou Navier-Stockes. Les méthodes multigrilles algébriques (AMG) sont parmi les plus efficaces pour résoudre les systèmes linéaires associés à la discrétisation de cette équation sur des maillages non structurés. Ces méthodes emploient des opérateurs de “smoothing” pour réduire les composantes à haute fréquence de l’erreur, des opérateurs de restriction pour projeter le problème sur des grilles grossières et enfin des opérateurs de prolongation pour revenir sur les tailles de grilles fines initiales. Chacune de ces étapes, ainsi que leur ordonnancement en cycles, dispose de nombreux paramètres à sélectionner (type de smoother et nombre d’itérations, choix des opérateurs de restriction et prolongation pour tenir compte de la variabilité des coefficients de l’équation, ou encore agencement des cycles multigrilles) (Briggs et al.). Le paramétrage optimal de ces méthodes dépend fortement du problème physique modélisé et représente une difficulté importante dans leur adoption.

Il est ainsi nécessaire de développer des méthodes d’apprentissage permettant d’accélérer la convergence des méthodes multigrilles, soit en obtenant un paramétrage optimal de méthodes existantes, soit en imitant directement les méthodes existantes. De nombreux travaux récents se sont engagés dans ces deux voies :
– Opérateurs de projection : (Katrutsa et al.) et (Greenfeld et al.) proposent des méthodes d’apprentissage non supervisées pour optimiser le paramétrage des opérateurs de prolongation et restriction des méthodes multigrilles géométriques (GMG) à deux niveaux avec une fonction coût permettant de minimiser le rayon spectral de la matrice d’itération. (Luz et al.) étendent ces travaux à des méthodes AMG en utilisant des Graph Neural Networks (GNN) pour gérer les maillages non structurés.

– Smoother : (Hsieh et al.) proposent une méthode d’apprentissage supervisée basée sur des Convolutional Neural Networks (CNN) et l’architecture U-Net afin d’apprendre une correction à l’algorithme de Jacobi tout en conservant les garanties de convergence. (Huang et al.) étendent ces travaux à l’optimisation du smoother de Jacobi dans les méthodes GMG.
Ces travaux s’appuient notamment sur le parallèle développé par (He et al.) entre les méthodes multi-grilles et les réseaux de convolution. En effet, le passage d’une grille grossière à une grille fine (et inversement) peut être vu comme une étape de filtrage d’un CNN.

Les résultats observés montrent une accélération d’un facteur 2 à 10 de la convergence des algorithmes existants tout en conservant d’excellentes propriétés de généralisation. Cependant, ces travaux sont limités à des étapes spécifiques des méthodes multigrilles et ont pour cible principale les méthodes GMG, restreignant leur utilisation aux maillages structurés sur des problèmes simplifiés.

L’objectif principal de ce travail de thèse est de développer des méthodes d’apprentissage pour la résolution des systèmes linéaires préconditionnés issus de la discrétisation sur maillages non structurés du problème de Poisson à coefficients variables. Ces méthodes doivent permettre d’accélérer la convergence des algorithmes multigrilles sur des architectures matérielles hétérogènes.
Références :

(Briggs et al.) William Briggs, Van Henson and Steve McCormick. A Multigrid Tutorial, 2nd Edition, SIAM, (2000) ISBN: 9780898714623. (Huang et al.) Ru Huang, Ruipeng Li and Yuanzhe Xi. Learning optimal multigrid smoothers via neural networks, (2021) arXiv:2102.1207v1 (Katrutsa et al.) Alexandr Katrutsa, Talgat Daulbaev and Ivan Oseledets. Deep Multigrid: learning prolongation and restriction matrices, (2017) arXiv:1711.03825v1.

(He et al.) Juncai He and Jinchao Xu. MgNet: A unified framework of multigrid and convolutional neural network. Sci. China Math. (2019). https://doi.org/10.1007/s11425-019-9547-2
(Hsieh et al.) Jun-Ting Hsieh, Shengjia Zhao, Stephan Eismann, Lucia Mirabella and Stefano Ermon. Learning Neural PDE Solvers with Convergence Guarantees (2019). arXiv:1906.01200v1

(Greenfeld et al.) Daniel Greenfeld, Meirav Galun, Ron Kimmel, Irad Yavneh and Ronen Basri. Learning to Optimize Multigrid PDE Solvers. ICML (2019). arXiv:1902.10248
(Luz et al.) Ilay Luz, Meirav Galun, Haggai Maron, Ronen Basri and Irad Yavneh. Learning Algebraic Multigrid Using Graph Neural Networks (2020). arXiv:2003.05744

Objectifs

L’objectif principal de ce travail de thèse est de développer des méthodes d’apprentissage pour la résolution des systèmes linéaires préconditionnés issus de la discrétisation sur maillages non structurés du problème de Poisson à coefficients variables. Ces méthodes doivent permettre d’accélérer la convergence des algorithmes multigrille sur des architectures matérielles hétérogènes.

Méthode

Afin de répondre à l’objectif fixé, nous proposons un plan de travail en 4 étapes :
– Etat de l’art des méthodes multigrilles améliorée par l’IA : Il s’agit dans un premier temps de faire un inventaire des méthodes d’accélération de chaque étape des algorithmes multigrilles. Il faudra évaluer leur impact en analysant les taux de convergence et le rayon spectral des opérateurs de transfert d’erreur résultants. Les travaux porteront d’abord sur des maillages structurés (réseau CNN) puis sur des maillages non structurés (réseau GNN)
– Conception d’un solveur linéaire multigrille hybride par composant : Sur la base des travaux précédents, il s’agira ensuite de proposer un choix de méthode d’apprentissage pour accélérer chaque étape du solveur multigrille (smoother, opérateurs de projection, niveaux de grille et type de cycle). Ces méthodes seront entraînées de manière indépendante puis assemblées lors de l’évaluation du modèle.
– Conception d’un solveur linéaire multigrille global : L’optimisation de chaque paramètre n’est pas complètement indépendante des autres composantes: une fois l’approche par bloc établie, on cherchera à enchaîner directement les étapes du solveur multigrille hybride dans un entraînement global.
– Développement d’un framework général de solveur linéaire hybride : Les méthodes de préconditionnement construites à partir des méthodes de déflation, de décomposition de domaine ou multigrille ont des équivalences (Tang et al., DOI:10.1007/s10915-009-9272-6). L’objectif sera d’adapter les méthodologies développées précédemment pour accélérer ces divers types de méthodes.
L’efficacité des méthodes développées sera évaluée sur des applications industrielles telles que les modélisations des interactions Fluide-particules, la Géomécanique, ou la séquestration du Co2, avec chacune des systèmes linéaires à résoudre ayant des caractéristiques différentes.
Nous évaluons la généralisation de ces méthodes sur un ensemble de paramètres de simulation variables : problème physique sous- jacent, géométrie du domaine, conditions aux bord ou encore taille initiale de la grille.

Résultats attendus – Expected results

La première cible de la thèse est l’élaboration et la validation de la solution proposée. Ces composants logiciels seront dans un premier temps intégrés dans une bibliothèque écrite dans des frameworks spécifiques (Tensorflow, Pytorch, JAX) permettant de bénéficier directement d’une performance optimisée sur les architectures matérielles de type CPU, GPU voire TPU.
Cette solution pourra également être interfacée dans les bibliothèques telles que Trilinos et AMGX ce qui nous permettra d’avoir des solutions performantes de référence à la fois sur CPU et GPU. Son efficacité et sa portabilité seront ensuite évaluées dans les simulations de la dynamique des fluides et l’écoulement en milieu poreux.

Categories
cdd highlight job

[JOB] Postdoc at CEA Saclay 👩‍💻🧑‍💻- Extension of the massively parallel code AMITEX: non-periodic, GPU, coupling

Subject

The AMITEX code developed by CEA is a massively parallel code (distributed memory), using Discrete Fourier Transforms, for the numerical simulation of the mechanical behavior of heterogeneous materials. It overcomes the limitations (in size and computation time) encountered by standard finite-element codes used in the same context. A stabilized version of the code, available to the public at https://amitexfftp.github.io/AMITEX/, is used by various national (Mines Paris, ONERA, ENSTA Bretagne, I2M-ENSAM Bordeaux, Météo-France, etc.) and international (USA, UK, China, Canada, Germany, Finland, Poland, etc.) teams.

The aim of the post-doc, proposed over two years, is threefold: to extend the field of application of the AMITEX code to non-periodic boundary conditions, to explore a possible adaptation to hybrid CPU/GPU architectures, and to use these extensions to develop FFT-based multi-scale couplings. This objective is built around the 2decomp open source library, on which AMITEX is based, and whose development was taken over in 2022 (https://github.com/2decomp-fft/2decomp-fft)[1] by a French-English team. 

The various tasks of the post-doc consist of :

– extend the functionalities of the AMITEX code (non-periodic BC) by introducing different types of discrete transforms (sine, cosine, Fourier) within the 2decomp library,

– explore 2decomp‘s current development towards the use of hybrid CPU/GPU architectures, with the aim of setting up a first AMITEX-GPU code,

– use this new functionality for multi-scale coupling, where a local (refined) simulation interacts with a global (unrefined) simulation [3] via non-periodic boundary conditions,

[1] Rolfo, S.; Flageul, C.; Bartholomew, P.; Spiga, F. & Laizet, S. The 2DECOMP&FFT library: an update with new CPU/GPU capabilities, Journal of Open Source Software, The Open Journal, 2023, 8, 5813

[2] Gélébart L., FFT-based simulations of heterogeneous conducting materials with combined nonuniform Neumann, Periodic and Dirichlet boundary conditions, Eur. Jour. Mech./A solids, Vol. 105, 2024

[3] Noé Brice Nkoumbou Kaptchouang and Lionel Gélébart. Multiscale coupling of fft-based simulations with the ldc approach. Computer Methods in Applied Mechanics and Engineering, 3

Candidate and subject

– The candidate should have completed his/her thesis in the field of numerical mechanics and have a strong and practical interest for computer development, particularly through open source codes (2decomp and AMITEX),

– Although the subject is aimed at (numerical) solid mechanicians, it may also be suitable for (numerical) fluid mechanicians or physicians who wish to open up to solid mechanics,

– Part of the topic concerns extension to GPUs, so prior knowledge of GPU programming will be a plus. However, this point is not essential if the candidate demonstrates solid computer skills that will enable him or her to be trained quickly,

– Depending on the candidate’s professional project and/or initial skills, the part of the work on multi-scale coupling, which will enable the project to be promoted through scientific publications, could be strengthened and/or extended to other types of coupling, and especially multi-physics couplings.

Details

The post-doc, based at CEA Saclay and granted for 2 years, will draw on the skills of L. Gélébart (DES/ISAS/DRMP/SRMA), developer of the AMITEX code, Y. Wang, HPC simulation specialist at the Maison de la Simulation (DRF) and Cédric Flageul (co-developer of the 2decomp library) from the University of Poitiers.

Contacts 

lionel.gelebart@cea.fr

yushan.wang@cea.fr

cedric.flageul@univ-poitiers.fr

Categories
cdd highlight job

[JOB] Engineer Position 👩‍💻🧑‍💻- HPC/HPDA support and development

Overview

Maison de la Simulation offers 2-3 engineer positions to join the newly created PDI team.

  • Contact: Yushan Wang (yushan.wang@cea.fr) & Benoît Martin (bmartin@cea.fr)
  • Duration: 3 years
  • Start date: ASAP

Application

Candidates must have at least a Master’s degree or equivalent in Computer Science, Applied Mathematics, or other relevant fields. A PhD degree and working experience in a relevant domain are appreciated. Good programming skills are required.

Applications should be sent to Yushan Wang and Benoît Martin. They should include:

  • a curriculum vitae
  • a motivation letter
  • at least two referees with their email addresses
  • links to Masters/PhD thesis and publications
  • links to software contributions

Context

With the increasing complexity of numerical simulation codes, new approaches are required to analyze the ever-growing amount of data. This requires coupling up-to-date data analysis libraries with the existing highly optimized numerical simulation codes. The PDI Data Interface code coupling library is designed to fulfill this goal.

The open-source PDI Data Interface library is designed and developed for process-local loose coupling in high-performance simulation codes. PDI supports the modularization of codes by inter-mediating data exchange between the main simulation code and independent modules (plugins) based on various libraries. It is developed in modern C++ and offers C, Fortran, and Python application programming interfaces.

PDI offers a reference system similar to Python or C++’s shared_ptr with locking to ensure coherent access by coupled modules. It provides a global namespace (the data store) to share references and implements the Observer pattern to enable modules to react to data availability and modifications. It implements a metadata system that can specify a dynamic type for references based on the value of other data (e.g., array size based on the value of a shared integer). Codes using PDI’s declarative API expose the buffers in which they store data and trigger notifications when significant steps in the simulation are reached. Third-party libraries such as HDF5, SIONlib, or FTI are wrapped in a PDI plugin. A YAML configuration file is used to interleave plugins and additional code without modifying the original application.

Another aspect we explore with PDI is in-situ data analysis, which performs numerical analytics during the simulation. This is necessary due to the ever-growing gap between file system bandwidth and compute capacities. To this end, we are developing the Deisa plugin. This plugin is based on the open-source Dask framework and allows us to transfer data to dedicated processes to perform in-situ analysis.

One of our goals is to establish a feedback mechanism between the in-situ data analysis and the numerical simulation. This allows better resource allocations and on-the-fly simulation monitoring. Another aspect that in-situ analysis enables is using AI methods for HPC and HPDA. For instance, we can have unsupervised detection of rare events during the simulation, which can greatly reduce the amount of produced data, thus reducing stress on the file system.

Work environment

At Maison de la Simulation laboratory, you will join a group of engineers and scientists focusing on all aspects of high-performance computing (HPC). You will have the opportunity to collaborate with PDI users and to introduce new features in the PDI plugin family. As a member of the PDI team, you will also have the opportunity to exchange with the developers of other HPC codes to enrich your skills in HPC code development. To validate your developments, you will be provided with access to the top European supercomputers (Adastra, Jean-Zay, etc.).

Work content

As a member of the newly created PDI team, your primary focus will be developing and maintaining the PDI library.

  • Develop core functionalities and new plugins for PDI
  • Develop the Deisa library
  • User-support
  • Organize training sessions
  • Library packaging and deployment

Skills

The successful candidate will master the following skills and knowledge:

  • Proficiency in modern C++ (C++14 and above)
  • Software engineering and library design
  • Modern development environment (Linux, git, CMake, etc.)
  • Communication (writing, presenting, and training)
  • Team-work and integration in an international environment

In addition, the following will be considered a plus:

  • Data analysis libraries such as Dask
  • Knowledge and experience with Python, Fortran and/or GPU computing
  • HPC and parallel libraries such as OpenMP and MPI
  • HPC parallel IO libraries such as HDF5 or NetCDF
  • Experience with supercomputer tools (slurm, sbatch, etc), packaging and deployment

Salary and benefits

The CEA offers salaries based on your degrees and experience. This position offers several advantages:

  • The possibility of joining collaborations with other European laboratories, the United States, and Japan
  • Numerous opportunities to travel internationally (exchanges, conferences, workshops and more)
  • 5 weeks of paid vacation and 4 weeks of RTT per year, and up to 2 days of remote work per week
  • Reimbursement of up to 75% of public transport cards and a free transport network throughout the Ile-de-France region
  • Complimentary health insurance and several company savings plans

References

Categories
seminaire passé seminar

[Seminar] October 24 2023 – Adéquation algorithme architecture pour l’accélération de méthodes d’inversion de données en grande dimension 🧑‍🏫 Nicolas GAC

🧑‍🏫 Nicolas Gac
🌎 Oct 24 2023
☕️ 10:00 AM
🏢 Maison de la Simulation, Batiment Digiteo Saclay, Salle Mandelbrot
🔗 slides

Résumé :

L’amélioration constante de la résolution des instruments parallèlement à la complexité croissante des méthodes de reconstruction basées sur des modèles de plus en plus précis, s’accompagne d’un besoin croissant en puissance de calcul. Les cartes accélératrices composées de GPU ou de FPGA sont une opportunité pour réduire l’écart technologique entre les systèmes d’acquisition et de reconstruction. Dans le contexte particulier de la résolution de problèmes inverses mal posés, mes travaux de recherche en adéquation algorithme-architecture visent à prendre en compte, en amont de la définition des méthodes, le potentiel et les limites des architectures d’accélération. Après une présentation du parallélisme offert par les architectures GPU et FPGA, le contexte algorithmique des méthodes bayésiennes et leur application en reconstruction tomographique seront présentés avec un focus sur l’accélération des opérateurs de projection/rétrojection utilisés en tomographie. Le projet ANR Dark-era portant sur l’accélération des calculs pour la radioastronomie sera ensuite présenté ; ce travail collaboratif vise à construire un outil de prototypage rapide fournissant des simulations exascales des futurs serveurs HPC nécessaires au traitement « temps réel » du flux de données massives du radiotélescope SKA. Enfin, des perspectives sur ces travaux seront exposées.

Categories
highlight job thesis

[JOB] 👩‍💻🧑‍💻Optimization framework for large deep neural networks

[FR] Plateforme logicielle d’optimisation pour réseaux de neurones profonds de très grande taille

Doctoral Domain : Computer Science

Funding : CIFRE schema, hired in French CDD (36 months) by Huawei France

Work Places : Huawei Paris Research Center (Boulogne-Billancourt) and Maison de la Simulation (University Paris-Saclay)

Industrial Supervision : Dr. Chong Li and Prof. Denis Barthou, Huawei Paris Distributed and Parallel Technologies Lab

Academic Supervision : Prof. Nahid Emad, Université Versailles Saint-Quentin-en-Yvelines

Keywords : Massively Parallelism, Linear Algebra, Performance Optimisation, Deep Learning, Large Models

Categories
cdi

[JOB] Permanent Researcher Position

System software for in situ HPC/AI coupling

Maison de la Simulation (MdlS) recruits a permanent CEA researcher (ingénieur chercheur permanent) to reinforce its “Science of Computing” (SoC) team.

In order to apply, please send a resume, cover letter, references and support letters to info@maisondelasimulation.fr. You can use the same email address for requests of information about the position. Applications will be evaluated from May the 15th 2023 and until the position is filled.

Context

Maison de la Simulation is a joint research and engineering laboratory of CEA, CNRS, Université Paris-Saclay and Université de Versailles Saint-Quentin-en-Yvelines localized on the plateau de Saclay campus next to Paris. It specializes in high-performance computing. The “Science of Computing” team conducts research, builds expertise and engineers tools in domains underlying HPC: computer science and applied mathematics.

The team co-leads the 5-years French ExaDoST project, part of NumPEx, that will design the software stack for data handling on the upcoming French and potentially European Exascale super-computers.

Mission

During the first five years, the selected candidate will contribute to the ExaDoST project. They will conduct research and design tools for data handling at Exascale, working both on the user facing API and on system software for in situ HPC/AI coupling. They will work in close collaboration with the other members of the project to design a modular software stack that should be used on the upcoming French Exascale supercomputer as well as more globally on French, European, and worldwide supercomputers.

To achieve these goals, the candidate will take part in the recruitment and management of the group of temporary engineer and young researchers dedicated to this project. They will leverage the expertise and tools already developed in the team, including the PDI and Deisa libraries.

As time evolves, the selected candidate will develop their own research and projects in the domains of the team. At the conclusion of ExaDost, they will have a large latitude to direct their research toward the directions they feel would serve the team and laboratory best.

Main activities

The candidate will:

  • conduct their research in the domain of runtime and system software for in situ analytics and HPC/AI coupling,
  • take part in the design and implementation of libraries and tools that make the results of this research available to users of HPC in production,
  • take part in the NumPEx project, and related activities of management and reporting,
  • participate to the management of temporary engineers and young researchers.

Skills and competencies

The successful candidate will hold a PhD thesis in computer science or in another field with a strong experience in computer science. They should master the following skills and competencies:

  • good knowledge of HPC parallel architectures, operating systems, and application programming,
  • knowledge of the design of existing system tools and libraries for HPC data handling (IO, in situ processing, coupling, checkpoint writing, etc.),
  • good programming skills in C++, and associated developments tools (Cmake, git, etc.),
  • good programming skills in python, and associated ecosystem,
  • autonomy, interest for team-work in an international context, leadership.

Salary and advantages

CEA “ingénieur-chercheur” positions offer a very competitive salary in French research ecosystem, indexed on diplomas and experience. In addition, the selected candidate will benefit from many advantages:

  • possibility to leverage existing collaborations of MdlS in Europe, US and Japan as well as international conferences with support for travel,
  • up to 3 days of remote work per week,
  • reimbursement of public transport costs (75%) and subsidized catering service,
  • included pension plan and health coverage (French social security plus CEA-specific insurance),
  • 9 full weeks of holidays per year.
Categories
member

Members

Director

Pascal TREMBLIN (CEA senior research scientist)

Executive assistant

Valérie BELLE

Permanent members

Science by Computing Team
  • Team Leader:
    Karim HASNAOUI (CNRS research engineer)
  • Edouard AUDIT (CEA senior research scientist)
  • Daniel BORGIS (CNRS senior research scientist)
  • Mathieu LOBET (CEA research scientist)
  • Riccardo SPEZIA (CNRS senior research scientist)
  • Yushan WANG (CEA research scientist)
  • Charles PROUVEUR (CNRS research engineer)
Science of Computing Team
  • Team Leader:
    Julien BIGOT (CEA research scientist)
  • Victor ALESSANDRINI (CNRS research scientist emeritus)
  • Yuuichi ASAHI (CEA research scientist)
  • Benoît MARTIN (CEA research scientist)
  • Simplice DONFACK (CNRS research engineer)
  • Thomas DUFAUD (UVSQ associate professor)
  • Nahid EMAD (UVSQ full professor)
  • Martial MANCIP (CNRS research engineer)
  • Thomas PADIOLEAU (CEA research scientist)
Project Officer
  • Julien THELOT

Fixed-term members

Postdocs
  • Paul REGNAULT
  • Simon EL-OUAFA
Engineers
  • Juan Jose SILVA CUEVAS
  • Salem KHELLAL
  • Hiba TAHER
  • Paul ZEHNER
  • Thierry ANTOUN
PhD students
  • Rémi BOURGEOIS
  • Jean-Marc LUDE
  • Aymeric MILLAN
  • François-Xavier MORDANT
  • Sara MOUKIR
  • Quentin PETIT
  • Kevin PEYEN
  • Mathilde POVEDA
  • Lou ROUSSEL-HARD
  • Pascal WANG
  • Zineb ZIANI
Trainees
  • Merieme BOURENANE
  • Benjamin GERBE
  • Melissa LARBI
  • Florent NYBERG
  • Pierre-Antoine RACLIUS
  • Sarah SAADOUNI

Former members