Prochains séminaires
Lundi 27 Mai à 10h: Johan Jansson (KTH Stockholm)
Title: Adaptive Euler - resolution of the Grand Challenge of aerodynamics: first principles, automated computation and error control in FEniCS, validation in HLPW, and prototype development toward aeroelasticity and FSI
Abstract: We show that computing turbulent solutions to Euler's equations with a slip boundary condition offers a Theory of Everything ToE for slightly viscous incompressible fluid flow as a parameter-free model.
We describe the Adaptive Euler methodology, and results from the High Lift Prediction Workshops, showing good validation and high efficiency. Adaptive Euler is first principles FEM simulation with adjoint-based adaptive error control, realized with automated discretization from mathematical notation in our FEniCS framework. We describe a prototype extension of the methodology to aeroelasticity and full Fluid-Structure Interaction (FSI) of airplanes also with adjoint-based adaptive error control, such methods are highlighted as having "great potential" in the field of aeroelasticity.
We show that Adaptive Euler simulations by the scientific method in our reproducible Digital Math framework predicts drag, lift, pitch moment and pressure distribution in close correspondence with experiments in the 4th and 5th High Lift Prediction Workshops, with very high efficiency, estimated to 100x faster and cheaper than RANS, the industry standard for efficient aerodynamics, corresponding to appx. 100 core hours on a commodity computational resource.
This work is developed as part of the Digital Math framework - as the foundation of modern science based on constructive digital mathematical computation. We invite you to run and modify the simulations yourself in your web browser. The Digital Math web environment with the Open Source Adaptive Euler / FEniCS software for reproducing the results in the paper at in principle ``zero'' cost, together with more detailed presentation and results is available at: http://digitalmath.tech
The presentation is available at: https://digitalmath.tech/digitalmath/digitalmath_adaptive_euler_ONERA_2024.html
9 Février à 14h: Vincent Chiaruttini (ONERA/DMAS)
Méthodes de discrétisations adaptatives pour les matériaux et structures.
Résumé :
L'étude des systèmes physiques, dont la description repose sur une représentation géométrique détaillée, est essentielle pour la modélisation des matériaux et structures : au niveau des véhicules aérospatiaux, en géophysique, dans les mécanismes industriels, lors de l'évaluation de la durée de vie de composants critiques ou l'analyse des déformations des méso- et microstructures hétérogènes, en présence de défauts localisés, etc. On se propose dans cet exposé d'aborder sous l'angle de la simulation numérique haute performance les apports que peuvent fournir les méthodes de discrétisation adaptatives génériques que nous développons et adaptons au DMAS, en particulier dans le cadre de modèles multiéchelles dont la morphologie est en évolution. Notamment, on présentera une méthode d'intersection de maillages, mise en œuvre dans un cadre parallèle à mémoire partagée au sein du code A-set, ainsi que des travaux en cours visant l'accélération de la génération de maillages de grandes dimensions par l'exploitation simultanée de noyaux surfaciques et volumiques, indispensables à des applications nécessitant des adaptations globales de discrétisation à chaque pas de résolution.
Illustration de la discrétisation éléments finis d'un couloir de phase γ de superalliage base nickel, constitué de 80 boucles de dislocations et 5 précipités γ′ tertiaires.
2023:
Vincent Chabridon et Bertrand Iooss (EDF R&D) présenteront le jeudi 21 septembre à 14h00 leurs travaux sur le thème "ICSCREAM: A Methodology and a Python Module for the Statistical Identification of Penalizing Configurations in Computer Experiments".
Abstract:
In nuclear engineering, the quantification of the input uncertainties and their propagation through high-fidelity computer models in order to estimate relevant statistical quantities of interest constitute the core phases of the so-called "best-estimate plus uncertainty" (BEPU) methodology. However, several methodological and numerical issues can make the BEPU methodology difficult to execute in practice, in particular, the large number (e.g., up to one hundred in some cases) of uncertain input variables. Recently, an advanced BEPU methodology, called ICSCREAM (for "Identification of penalizing Configurations using SCREening And Metamodel"), has been proposed for the identification of penalizing configurations of some specific "scenario parameters" regardless of the uncertainties affecting the remaining random variables, possibly in a high-dimensional setting.
The ICSCREAM methodology [1] relies mainly on several steps. The first one aims to set up the study (model, input variables, output quantity of interest) and to generate the learning sample. In a given-data context, one can just estimate a quantity of interest (e.g., typically, a high-order quantile in risk analysis). Then, one performs global and target sensitivity analyses using the Hilbert-Schmidt Independence Criterion (HSIC) in order to achieve both a screening and a ranking of the most influential inputs (with some specific aggregation strategy) [2,3]. Thirdly, based on the results of the previous part, one builds sequentially a Gaussian process metamodel so as to facilitate the uncertainty propagation for finding the most penalizing configurations in the last step. More precisely, the Gaussian process metamodel is used to estimate, within a Bayesian framework, the conditional probabilities of exceeding a critical value, according to the scenario inputs. Critical configurations of these inputs are then identified.
The present work aims to propose a dedicated Python implementation of this methodology. The proposed package relies on the open-source software OpenTURNS (for "Open-source Treatment of Uncertainty, Risk'N Statistics") [4], dedicated to the treatment of uncertainties. Initially created by EDF R&D, Airbus Group, and Phimeca Engineering, later joined by IMACS and ONERA, this software provides several classes and methods to perform high-level uncertainty quantification, propagation, and sensitivity analysis tasks. The efficiency of the ICSCREAM methodology, and the proposed implementation, are illustrated in controlled toy cases and in a thermal-hydraulic industrial case simulating an accident of primary coolant loss in a pressurized water reactor with a very large number of uncertain inputs and a few scenario inputs to be penalized.
References:
[1] Marrel, A., Iooss, B., Chabridon, V. (2022). "The ICSCREAM Methodology: Identification of Penalizing Configurations in Computer Experiments Using Screening and Metamodel -- Applications in Thermal Hydraulics". In: Nuclear Science and Engineering, 196, pp. 301–321.
[2] Da Veiga, S. (2015). "Global Sensitivity Analysis with Dependence Measures". In: Journal of Statistical Computation and Simulation 85 (7), pp. 1283-1305.
[3] Marrel, A., Chabridon, V. (2021). "Statistical developments for target and conditional sensitivity analysis: Application on safety studies for nuclear reactor". In: Reliability Engineering & System Safety, 214, 107711.
[4] Baudin, M., Dutfoy, A., Iooss, B., Popelin, A.-L. (2016). "OpenTURNS: An Industrial Software for Uncertainty Quantification in Simulation", In: Handbook of Uncertainty Quantification (Ghanem, R., Higdon, D. and Owhadi, H., editors), Springer International Publishing.
Mercredi 20 septembre 2023 10h JML Bernard (CEA & CMLA)
Titre : New insights on the exact reduction of the problem of electromagnetic (or acoustic) fields above a multilayer
Résumé : En électromagnétisme (comme en acoustique), la modélisation de la propagation au-dessus d'un plan stratifié reste un sujet de préoccupation majeur dans les domaines des communications, des antennes et du radar. Dans la littérature sur ce sujet, partant d'une expansion de Fourier en ondes planes, on aboutit généralement à des approximations dont les limites de validité sont le plus souvent imparfaitement décrites, quand on fait varier la distance, le milieu stratifié considéré et la source excitatrice. Ces développements approchés donnent d'ailleurs lieu à de nombreuses polémiques (voir les analyses remarquables de J.R. Wait sur ces controverses |1]-[2]). On analyse ici une méthode globale, étendant nos précédents travaux [3], menant à des expressions 'simples', des séries exactes et asymptotiques uniformes, parfaitement décrites à tous les ordres, pour une vaste classe de plans multicouches.
[1] J.R. Wait, 'Electromagnetic Waves in Stratified Media', Pergamon, 1970
[2] J.R. Wait,, 'The Ancient and Modern History of EM Ground-Wave Propagation', IEEE AP Magazine, Vol. 40, No. 5, October 1998.
[3] J.M.L. Bernard, 'Propagation over a constant impedance plane: arbitrary primary sources and impedance, analysis of cut in active case, exact series, and complete asymptotics', IEEE TAP, vol. 66, 12, 2018.
Jeudi 29 juin 2023 10h Nicolas LEBBE (CNRS Laboratoire Laplace)
Homogenization and optimization of plasmonic metasurfaces
Résumé : Metasurfaces are arrays of ``meta-atoms'' with thickness and pattern size much smaller than the wavelength of the incident waves. Over the past few decades, models reducing the geometric complexity of metasurfaces into planar interfaces with effective transition conditions have been developed in the fields of acoustics, water waves, electromagnetism, etc. In order to obtain significant effects from the metasurface on the incident waves, it is necessary to consider resonant and non-periodic meta-atoms. Such resonances can arise from the use of particular materials, such as with Mie and plasmonic resonances, or from particular geometries, as in the case of Helmholtz and split ring resonators. In this presentation, I will first present an homogenization method capable of capturing plasmonic resonances even in a non-periodic setting, and which allows a metasurface to be replaced with effective transition conditions called GSTC. The second part of this talk will be focused on the optimization of metasurfaces using the fast simulations provided by this effective model and an adjoint-based algorithm to design metadeflectors and metalenses
Mardi 6 Juin à 9h30, Paola Cinella, Paris Sorbonne
Bayesian machine learning for data-driven turbulence modeling and uncertainty quantification
Reynolds-averaged Navier-Stokes (RANS) models of turbulent flow remain the cornerstone of flow analysis and design in fluids engineering, despite several inherent limitations that prevent them from capturing the correct physics of flows even in simple configurations. Instead, these models are developed and tuned to match certain quantities of interest to the engineer while providing reasonable performance over a wide range of flow situations.
On the other hand, the increased availability of high-fidelity data from both advanced numerical simulations and flow experiments has fostered the development of a multitude of "data-driven" turbulence model based on data-assimilation, Bayesian calibration, as well as machine learning techniques. Although these models can provide significantly better results over classical models for the narrow class of flows for which they are trained, their generalization capabilities remain far inferior to those of classical models, while the computational cost of model training and validation is significant.
In this talk I will first review the qualities and drawbacks of RANS model derived from human or artificial intelligence. Then I will present a methodology for developing data-driven models with improved generalization capabilities while delivering estimates of the predictive uncertainty. I will conclude with an outlook on future research avenues for the development of industry-ready data-driven models.
21 avril à 14h, Frédéric Nataf, Laboratoire J.L. Lions, équipe INRIA Alpines, CNRS et Sorbonne Université
Titre: Espaces grossiers adaptatifs pour les méthodes de décomposition de domaine
Nous présentons une méthode adaptative de décomposition de domaine (DD) pour résoudre les problèmes symétriques définis positifs (équation de Darcy, élasticité, ...) et son extension aux problèmes de points selle définis comme une matrice bloc deux par deux. Les algorithmes ne nécessitent aucune connaissance a priori du noyau du problème (near kernel en anglais) ni, pour les problèmes de point selle, de l'espace contraint. Nous supposons seulement que toutes les sous-matrices sont creuses et que les blocs diagonaux sont spectralement équivalents à une somme de matrices semi-définies positives. Des résultats numériques sur des problèmes d'élasticité tridimensionnels pour des structures acier-caoutchouc discrétisées par un méthode d'éléments finis avec une pression continue sont présentés pour un milliard de degrés de liberté, ainsi que des comparaisons avec une méthode multigrille algébrique. L'utilisation de ces approches est facilitée par l'emploi de la librairies de méthodes de décomposition de domaine HPDDM (écrite en C++/MPI et pouvant être appelée depuis PETSc) et/ou de FFDDM (écrite dans le langage d'éléments finis FreeFem).
31 mars : Iain Henderson (IMT)
Titre: Régression par processus gaussiens pour les équations aux dérivées partielles
Dans cette présentation, nous aborderons la question de l'utilisation de la RPG pour résoudre différents problèmes issus d'EDPs, en tentant d'imposer les contraintes d'EDP directement dans le processus gaussien, donnant lieu à un "physics-informed Gaussian process". Afin de donner un cadre rigoureux à cette démarche, nous exposerons des résultats théoriques récents décrivant comment incorporer rigoureusement certaines contraintes physiques (explicitement: la régularité Sobolev et le respect strict de l'EDP si linéaire) dans le processus gaussien.
Nous donnerons ensuite des exemples d'applications pratiques sur l'équation des onde en 3 dimensions, quant à l'estimation de certains paramètres physiques. Nous terminerons par donner quelques ouvertures, pour les EDPs non linéaires notamment.
Ces travaux sont effectués dans le cadre d'une thèse encadrée par Pascal Noble (IMT/INSA) et Olivier Roustant (IMT/INSA), et financée par le service hydrographique et océanographique de la Marine (SHOM).
Titre: Comment assurer la conservation locale
Dans cet exposé, je répondrais à une question que m'avait posée Bernard Courbet, il y a 25 ans.
La question étais de savoir si les schémas que je proposais étaient localement conservatifs ou non. Ils ne s'exprimaient pas du tout sous forme de flux. Je répondais par une extension du théorème de Lax Wendroff, et Bernard n'était absolument pas convaincu.
Un peu par hasard, longtemps aprés, je me suis aperçu que la réponse était simple à donner, mais cette question m'a permis de montrer que toutes les méthodes que je connais (volume fini, bien sûr, mais éléments finis et dG) peuvent s'écrire sous forme de flux don le calcul est explicite. Cela a aussi permis de reformuler une condition exprimant que le schéma est dissipatif, puis, avec François Vilar (Montpellier) de développer une technique de stabilisation non linéaire qui s'applique par exemple en Galerkin discontinu.
Le 13 janvier à 14h :Vincent Perrier (INRIA, équipe CAGIRE et Université de Pau et des Pays de l’Adour)
Titre: Sur le comportement des schémas numériques de type volumes finis et Galerkin discontinu dans la limite à faible nombre de Mach
Dans cet exposé, nous aborderons des travaux menés ces dernières années sur le comportement des schémas numériques à faible nombre de Mach [4, 8, 9]. Ces travaux ont été menés en
collaboration avec Simon Delmas, Jonathan Jung et Ibtissem Lannabi. Les schémas numériques de type volumes finis sont connus pour présenter des problèmes de
précision lorsque le nombre de Mach M devient petit [12]. Il existe aussi des problèmes liés à l’intégration en temps, liés à la CFL acoustique qui devient petite, mais nous ne nous intéresserons
pas à cet aspect dans cet exposé.
Nous commencerons par rappeler les résultats présentés dans [6]: une analyse asymptotique à une échelle de temps quand M → 0 montre qu’on doit s’attendre à avoir une pression qui se
développe comme p = p0 + O M2 , tandis que les schémas numériques donnent un développement asymptotique de type p = p0 + O (M).
Dans un deuxième temps, nous effectuerons un développement à deux échelles de temps, qui permet non seulement d’analyser les fluctuations acoustiques dans les écoulements à faible nombre de Mach comme dans [4], mais également d’identifier la pression et la vitesse parasite à faible nombre de Mach comme la limite en temps long d’un système d’ondes [9]. Ces résultats mettent en jeu un outil crucial introduit dans ce contexte dans [5] et démontré dans [1]: la décomposition de Hodge-Helmholtz discrète de la composante vitesse ou quantité de mouvement du système. Cette décomposition permet en particulier de mettre en défaut dans certains contextes une tentative de solution fréquemment proposée consistant à centrer la pression.
En se basant sur l’existence ou non de décomposition de Hodge-Helmholtz discrète, nous donnerons des pistes de schémas numériques pouvant potentiellement se comporter correctement à
faible nombre de Mach, soit sur des schémas centrés aux nœuds tels que proposés dans [2, 3, 10], soit basés sur des méthodes de Galerkin discontinu qui étendent à l’ordre élevé les résultats
prouvés pour les maillages triangulaires dans [7, 5].
References
[1] Douglas N. Arnold and Richard S. Falk A uniformly accurate finite element method for the
Reissner–Mindlin plate. SIAM Journal on Numerical Analysis, 1276-1290 (26), 1989.
[2] Wasilij Barsukow. Stationarity preserving schemes for multi-dimensional linear systems.
Mathematics of Computation, 88(318):1621–1645, 2019.
∗Inria, équipe CAGIRE et Université de Pau et des Pays de l’Adour.
[3] Wasilij Barsukow. Truly multi-dimensional all-speed schemes for the Euler equations on
Cartesian grids. Journal of Computational Physics, 435, 2021.
[4] P. Bruel, S. Delmas, J. Jung, and V. Perrier. A low Mach correction able to deal with low
Mach acoustics. Journal of Computational Physics, 378:723–759, Feb. 2019.
[5] Stéphane Dellacherie, Pascal Omnes, Felix Rieper. The influence of cell geometry on the
Godunov scheme applied to the linear wave equation. Journal of Computational Physics,
229(14):5315–5338, 2010.
[6] H. Guillard and C. Viozat. On the behaviour of upwind schemes in the low Mach number
limit. Computers & fluids, 28(1):63–86, 1999.
[7] H. Guillard. On the behavior of upwind schemes in the low Mach number limit. IV: P0
approximation on triangular and tetrahedral cells. Computers & Fluids, 38(10):1969–1972,
2009.
[8] J. Jung, and V. Perrier. Long time behavior of finite volume discretization of symmetrizable
linear hyperbolic systems. IMA Journal of Numerical Analysis, 2022.
[9] J. Jung, and V. Perrier. Steady low Mach number flows : identification of the spurious mode
and filtering method. Journal of Computational Physics, 468, 2022.
[10] Gérard Gallice, Agnes Chan, Raphaël Loubère, Pierre-Henri Maire Entropy stable and positivity preserving Godunov-type schemes for multidimensional hyperbolic systems on unstructured grid . Journal of Computational Physics, 468, 2022.
[11] S. Schochet. Fast singular limits of hyperbolic PDEs. Journal of Differential Equations,
114(2):476–512, 1994.
[12] E. Turkel. Preconditioned methods for solving the incompressible and low speed compressible
equations. Journal of Computational Physics, 72(2):277–298, 1987
2022:
Le 9 décembre à 14h : Prof. Daniele di Pietro (Univ. de Monpellier)
Hybrid High-Order methods for the incompressible Navier—Stokes equations
Abstract: In this talk I will provide an overview of several aspects of the HHO discretisation of the incompressible Navier—Stokes equations: inf-sup stability, robust approximations of the convective terms, robust handling of large irrotational body forces, and treatment of non-Newtonian theologies.
le 21 octobre à 14h : ANCIAUX SEDRAKIAN Ani (IFPEN)
Titre : Towards exascale computing resources for energy-oriented applications
Résumé: High-performance computing is at the heart of digital technology which allows the simulation of complex physical phenomena. The current trend for hardware architectures is toward heterogeneous systems with multi-core CPUs accelerated by GPUs to get high computing power. The demand for fast solutions of simulations coupled with new computing architectures drives the need for challenging parallel algorithms, as most current algorithms cannot fully exploit highly parallel architectures. In fact, severe degradation of performance is detected when the number of processing units increases. This phenomenon is due to several factors. First, in such systems, there exist several levels of parallelism that must be considered. Also, on modern hardware, the emergence of low precision arithmetic permits to obtain a higher computing power. Moreover, there is an important gap between the required time to perform floating point operations and to communicate the results between the processing units. In this presentation, we discuss about the research works dealing with mentioned concerns for energy-oriented applications and illustrate the performance gain obtained by the conception of different algorithms, the software design, and the appropriate programming models.
Le 27 septembre à 14h:Thomas Elguedj Univ Lyon, INSA-Lyon, CNRS, LaMCoS UMR5259, F-69621 Lyon
Optimisation de forme paramétrique par analyse isogéométrique : approche immergée par décomposition de domaine
L’optimisation de forme paramétrique nécessite de lier de façon forte la représentation géométrique et le maillage de calcul des objets dont on cherche à changer la forme. Dans les approches éléments finis traditionnelles, bien que différentes techniques existent, ceci reste un point délicat puisque le maillage d’un objet ne s’appuie pas directement sur la représentation CAO de celui-ci. L’analyse isogéométrique IGA, qui s’appuie sur les mêmes outils de représentation géométrique que la CAO, permet de lever de façon simple et robuste cette difficulté. En effet, il est possible de définir un unique modèle pour la représentation géométrique et la simulation, sans remailler ni faire d’aller-retour vers la représentation CAO. Néanmoins, l’optimisation de forme paramétrique à l’aide de l’IGA n’a été que peu appliquée à des structures complexes qui nécessitent plusieurs patchs pour être décrites. Pour les structures de forme et topologie complexe, de nombreux patchs sont requis et se pose la question de garantir le maintien de la compatibilité géométrique de ceux-ci au cours de l’optimisation, en particulier si l’on cherche à n’optimiser la forme que d’une partie de la géométrie de la structure considérée. Les structures aéronautiques sont un bon exemple de ce type de problème, que ce soit pour les structures minces de type coque comportant de nombreux raidisseurs, ou pour des pièces massives. Pour ces deux classes de problèmes, nous proposons une approche immergée non isoparamétrique, qui permet nativement de garantir la connectivité géométrique exacte des structures optimisées. Cette approche s’inspire de la méthode dite Free-Form Deformation adaptée au formalisme IGA [1]. Le couplage mécanique des différentes patchs (immergés ou non), dont les maillages sont par nature incompatibles, peut être judicieusement réalisée par la méthode Mortar. Ceci nous permet de reformuler le problème de façon identique à la méthode FETI à un seul niveau et ainsi de disposer d’une méthode numérique efficace pour traiter l’optimisation de forme de problèmes de grande taille [2]. La méthode développée sera illustrée tant sur des problèmes de structures minces avec raidisseurs [1] que sur des aubages de turbomachines [3]. References [1] T. Hirschler, R. Bouclier, A. Duval, T. Elguedj, and J. Morlier, The embedded isogeometric Kirchhoff-Love shell: From design to shape optimization of nonconforming stiffened multipatch structures. Comput. Methods Appl. Mech. Engrg. (2019) 349:774-797. [2] T. Hirschler, R. Bouclier, D. Dureisseix, A. Duval, T. Elguedj, and J. Morlier. A dual domain decomposition algorithm for the analysis of non-conforming isogeometric Kirchhoff–Love shells. Comput. Methods Appl. Mech. Engrg. (2019) 357:112578. [3] M. Guerder, A. Duval, T. Elguedj, P. Feliot, and J. Touzeau. Isogeometric shape optimisation of volumetric blades for aircraft engines. Structural and Multidisciplinary Optimization (2022) 65(3):86
le 23 septembre à 14h: Prof. A. Lozinski (Univ. de Besançon)
φ-FEM: a fictitious domain approach achieving optimal convergence without non standard numerical integration
Geometrically unfitted methods, i.e. the numerical methods using the computational meshes that do not fit the boundary of the domain, and/or the internal interfaces, have been widely used in the computational mechanics for decades. Their classical variants (Immersed Boundary or Fictitious Domain methods) are easy to implement but can suffer from poor accuracy. More recent approaches, like XFEM and CutFEM enjoy the optimal accuracy at the price of a considerable sophistication wrt the implementation: they introduce the integrals on the parts of the mesh cells cut by the boundary (the cut cells) so that a non trivial numerical integration is required. In this talk, we present an alternative unfitted method – φ-FEM, first introduced in [1, 2] for the Poisson equation with Dirichlet or Neumann boundary conditions, then extended to some less academic problems in [3]. As in CutFEM/XFEM, we suppose that the physical domain Ω is embedded into a simple background mesh and we introduce the active computational mesh Th, getting rid of the cells lying entirely outside Ω. The general procedure is as follows: we extend the governing equations from Ω to Ωh (the domain of Th) and write down a formal variational formulation on Ωh without taking into account the boundary conditions on ∂Ω; we then impose the boundary conditions on ∂Ω using an appropriate ansatz or additional variables, explicitly involving the level set φ that defines the actual boundary by Ω = {φ < 0}; finally, we add an appropriate stabilization to guarantee coercivity/stability on the discrete level. This approach allows us to achieve the optimal accuracy using the usual FE spaces and the usual numerical integration: all the integrals in φ-FEM can be computed by standard quadrature rules on entire mesh cells and on entire facets. FE of any order can be straightforwardly used. The geometry is naturally taken into account with the needed optimal accuracy: it suffices to approximate the levelset by piecewise polynomials of sufficiently high degree. Moreover, φ-FEM is designed so that the matrices of the discrete problems are reasonably conditioned, i.e. their condition numbers are of the same order as those produced by a standard fitting FEM on a mesh of comparable size. This is a joint work with Michel Duprez (Inria, Strasbourg) and Vanessa Lleras (IMAG, univ. Montpellier). References [1] M. Duprez and A. Lozinski. φ-FEM: a finite element method on domains defined by level-sets. SIAM J. Numer. Anal., 58(2):1008–1028, 2020. [2] M. Duprez, V. Lleras, A. Lozinski. A new φ-FEM approach for problems with natural boundary conditions. Numer. Methods Partial Differ. Equ., 2021 (to appear). [3] S. Cotin, M. Duprez, V. Lleras, A. Lozinski, K. Vuillemot. φ-FEM: an efficient simulation tool using simple meshes for problems in structure mechanics and heat transfer. 2021 (preprint)
Le 8 juillet à 14h : Lucille-Marie Tenkes (INRIA Gamma)
Titre: "Méthodes de génération de maillages quad-dominants pour des applications en mécanique des fluides numérique"
Résumé:
Les simulations numériques en mécanique des fluides visent à capturer avec précision des phénomènes de diverses natures. La qualité de la simulation dépend grandement de la représentation discrète du domaine de calcul, appelée maillage, qui lui sert de support. En particulier, certains phénomènes sont mieux détectés si le maillage présente des caractéristiques spécifiques. Par exemple, il est généralement attendu d'un maillage de couche limite qu'il soit structuré et aligné avec la frontière du domaine, et idéalement constitué de quadrilatères ou d'hexaèdres. L'alignement des éléments du maillage avec l'écoulement est aussi un facteur d'amélioration des simulations. La génération de maillages structurés purement quadrilateraux ou hexaédriques se heurte à des obstacles divers: il est plus difficile, avec ce type d'éléments, de concilier alignement et structure, d'approcher avec précision tout type de géométries, et de capturer des phénomènes anisotropes. Dans ce contexte, on présente une méthode de génération de maillages multi-éléments, présentant des zones structurées formées de quadrilatères, et des zones non-structurés lorsque cette contrainte n'est pas nécessaire.
Pour construire automatiquement de tels maillages quad-dominants, la méthode proposée s'appuie sur les outils et techniques de l'adaptation de maillage, qui repose sur le calcul d'un champ de métrique. En exploitant les directions intrinsèques du champ de métrique, à travers les méthodes « métrique-aligné » ou « métrique-orthogonal », des maillages présentant localement une certaine structure et orthogonalité peuvent être générés.
On développe cette idée pour mettre en place une boucle d'adaptation étendue à des maillages quad-dominants.
Des travaux ont été menés en premier lieu sur la génération de maillage, exploitant la méthode métrique-orthogonale. En particulier, on propose une méthode d'appariement se reposant sur les particularités des maillages métrique-orthogonaux.
Dans un second-temps, on a démontré l'impact majeur du champ de métrique sur la qualité des maillages quadrilatéraux et alignés, et amélioré les méthodes de lissage du champ de métrique existantes pour obtenir des maillages quad-dominants de meilleure qualité. Ensuite, on présente les modifications nécessaires à un solveur Volumes Finis pour permettre des calculs sur maillages multi-éléments. Les modifications concernent en particulier la discrétisation des termes convectifs et visqueux, et notamment le calcul des gradients. En application de ces méthodes, des calculs adaptatifs sur maillages multi-éléments ont été réalisés pour des écoulements Euler, laminaires et turbulents.
20 mai à 14h : Ludovic Martaud, Université de Nantes
Une famille de schémas numériques volumes finis d'ordre élevé vérifiant une stabilité entropique globale sur maillage 2D non structurés.
Bien qu'elles n'assurent pas l'unicité des solutions en deux dimensions d'espace, les inégalités d'entropies associées à un système de lois de conservation représentent un critère de stabilité important qu'il convient de restituer au niveaux discret par des méthodes numériques appropriées. De nombreux schéma d'ordres élevés ont été construits en ce sens conduisant la plupart du temps à des inégalités d'entropie semi discrète (DG, ENO/WENO, ...).
Dans cet exposé, nous présenterons des schémas volumes finis d'ordre élevé vérifiant une inégalité d'entropie discrète globale sur maillages non structurés 2D. Ces schémas reposent sur une discrétisation pondérée et d'ordre élevé des différents termes ; la pondération étant choisie afin d'assurer la stabilité entropique attendue. Des cas tests seront présentés afin d'illustrer la précision et la stabilité des schémas ainsi construits.
15 avril : J.M. Loubès (IMT) à 14h
Challenges liés au biais et à la robustesse en IA
Dans cet exposé nous nous intéresserons aux méthodes permettant de détecter des biais en IA et aux approches permettant d'y faire face. Pour cela, je présenterai les méthodes basées sur le transport optimal de mesures.
Ludovic Chamoin (ENS Paris Saclay)=> séminaire remis à une date ultérieure
Multiscale computations with MsFEM: adaptive strategy,
coupling with model reduction, and use for data assimilation
Abstract: The Multiscale Finite Element Method (MsFEM) is a powerful numerical method in the context of multiscale analysis. It uses basis functions which encode details of the fine scale description, and performs in a two-stage procedure: (i) offline stage in which basis functions are computed solving local fine scale problems; (ii) online stage in which a cheap Galerkin approximation problem is solved using a coarse mesh. However, as in other numerical methods, a crucial issue is to certify that a prescribed accuracy is obtained for the numerical solution. In the present work, we propose an a posteriori error estimate for MsFEM using the concept of Constitutive Relation Error (CRE) based on dual analysis. It enables to effectively address global or goal-oriented
error estimation, to assess the various error sources, and to drive robust adaptive algorithms. We also investigate the additional use of model reduction inside the MsFEM method in order to further decrease numerical costs. We particularly focus on the use of the Proper Generalized Decomposition (PGD) for the effective computation of multiscale basis functions, in a multi-query MsFEM framework that requests the solution of parametric local fine-scale problems. Eventually, the interest of MsFEM for data assimilation is investigated. We particularly show how this multiscale method can be beneficially used when performing inverse analysis from digital image correlation on a known material microstructure.
11 mars : H. Haddar (INRIA-CMAP)INRIA, project-team IDEFIX, ENSTA Paris Tech, Institut Polytechnique de Paris, Palaiseau
Interplay between imaging algorithms and the analysis of interior transmission problems
A large progress has been made in the last two decades on the analysis of so-called sampling methods (the linear sampling method, the factorization method, the generalized linear sampling method, etc...) which offered an original way to handle the imaging problem for inverse scattering problem without the need for any linearization assumption nor a forward solver. Beyond its practical aspect, this class of methods triggered interests for the theoretical analysis of an associated boundary value problem, the so-called interior transmission problem (itp) and its associated (non linear and non self adjoint) spectral problem. The latter also revealed an interesting aspect of the duality between invisibility and resonance for penetrable media [1]. After a rapid survey of these elements, I would like to point out, through two examples, how new algorithms adapted to challenging configurations have been proposed exploiting this close relation with the itp. The first example is the imaging of dense crack network. Although the problem seems to have nothing to do with the notion of transmission eigenvalues, the latter helped the design of an indicator function for the crack density, providing better results than classical approaches [2]. The second example is differential imaging. Monitoring a media through successive measurement campaigns offers the possibility to image newly born defects. The design of an indicator function capable of revealing these additional defects relies on the comparison between solutions to the interior transmission problem. Application of this procedure to cracks imaging in fracture elastic media has been applied in [3]. In my talk I will rather present a closely related problematic which is the imaging of defects in a periodic media, assuming that the periodic structure is not known a priori. For this case a single measurement campaign is needed. We show how to build an indicator function for the defect independently from the any prior reconstruction of the background. In an earlier work, we gave justification of this procedure assuming that the defect also have some (larger) periodicity scale [4]. We take the opportunity of this talk to present some recent elements of the analysis that helped removing this assumption.
References [1] F. Cakoni, D. Colton, H. Haddar, Transmission Eigenvalues, Notices of the American Mathematical Society 68, 09, October 2021, p. 1499–1510, [2] L. Audibert, L. Chesnel, H. Haddar, K. Napal, Qualitative indicator functions for imaging crack networks using acoustic waves, SIAM Journal on Scientific Computing, 2021, [3] F. Pourahmadian, H. Haddar, Differential tomography of micromechanical evolution in elastic materials of unknown micro/macrostructure, SIAM Journal on Imaging Sciences 13, 3, August 2020, p. 1302–1330, [4] F. Cakoni, H. Haddar, T.-P. Nguyen, New interior transmission problem applied to a single Floquet–Bloch mode imaging of local p
28 janvier 2022 à 14h : R. Loubère (IMB)
"Un paradigme pour construire des méthodes numériques de précision élevée Design, mise en applications"
Solving a system of PDEs with a high accurate numerical scheme is usually well achieved if the solution is extremely regular.
Unfortunately, in the case of an hyperbolic system of in presence of source terms or steep gradients, this assumption is often violated.
Then "high accuracy" (for smooth solutions) often leads to "high troubles" close to irregular ones, generation
of Gibbs phenomena, oscillations, lacks of admissibility, NaN (Not-a-Number) and ultimately code crash.
Therefore most high accurate numerical methods (FV, DG, FD, FE...) add some sort of artificial dissipation to avoid those phenomena.
Then the tricky questions to answer are: where? and how much?
In this talk we will propose a solution for FV and DG based on an 'a posteriori' check of the solution and
a recomputation with more dissipative schemes up to the validity of the numerical solution is achieved.
The technique is based on three ingredients: a robust and trustable (parachute) scheme, an ordered cascade of numerical schemes to test successively, and, a Detection procedure to (in)validate a candidate numerical solution.
In this talk we will review the general idea and present several contexts of use by different groups of researchers. A large set of (convincing) numerical results will be presented.
2021:
10 décembre : C. Coreixas (Cerfacs)
"Lattice Boltzmann methods: Weakly compressible formulations and beyond"
The Boltzmann equation (BE) represents the balance between transport and collision of particles, through the evolution of their velocity distribution function f. At the macroscopic level, f can be understood as the number of particles at location x, time t, and with a given velocity. Even if several approaches have been proposed to directly solve BE, it is far more efficient to solve its discrete velocity formulation, which considers only a finite number of speeds and orientations for the propagation of particles [1]. Contrarily to most discrete velocity models, the lattice Boltzmann method (LBM) relies on a very limited number of discrete velocities. The latter are chosen according to quadrature rules (or moment matching approaches) to ensure the asymptotic convergence towards Euler, Navier-Stokes-Fourier (NSF), or higher-order sets of equations [2,3]. Numerically speaking, LBMs benefit from a very efficient numerical scheme which makes them of particular interest for high-performance computing based on either CPUs or GPUs [4,5]. The latter scheme relies on Cartesian grids with octree-based refinement methodologies [6], kinetic boundary conditions [7], and it can easily include subgrid-scale and wall modelings [8,9] to simulate realistic flow conditions past complex geometries [10]. All of this explains why, during the past three decades, LBMs have gradually emerged as an interesting alternative for direct numerical simulations (DNS) and large eddy simulations (LES) of weakly compressible fluid flows, and beyond [11]. Nevertheless, LB solvers have a number of practical limitations. As an example, due to their inherent couping with Cartesian grids, it is difficult to properly simulate in an efficient manner wall-bounded turbulent flows even with advanced wall models. In addition, while LBMs can compete with NS solvers for DNS and LES, it is likely to be of no use when state-of-the-art results are obtained with (unsteady) Reynolds averaged NS solvers. Finally, by relying on an explicit time-marching approach, LBMs are of little interest for steady-state flow simulations as compared to time-implicit NSF solvers. In the end, to properly understand what are the pros and cons of LBMs, it is necessary to dive into their derivation. This talk then aims at recalling the main steps behind the derivation of weakly compressible LBMs, as well as, more advanced models. Particular attention is further paid to fully compressible formulations, as they have recently regained interest from both academic and industrial groups [12-16]. [1] Mieussens, A survey of deterministic solvers for rarefied flows, AIP Conf. Proc., 2014. [2] Shan & He, Discretization of the velocity space in the solution of the Boltzmann equation, Phys. Rev. Lett., 1998. [3] Shan et al., Kinetic theory representation of hydrodynamics: A way beyond the Navier Stokes equation, J. Fluid Mech., 2006. [4] Schornbaum; Rde, Massively parallel algorithms for the lattice Boltzmann method on non-uniform grids, SIAM J. Sci. Comput., 2016. [5] Latt et al., Cross-platform programming model for many-core lattice Boltzmann simulations, PLoS One, 2021. [6] Astoul, Towards improved lattice Boltzmann aeroacoustic simulations with non-uniform grids: application to landing gears noise prediction, Aix-Marseille Université, 2021. [7] Krger et al., The Lattice Boltzmann Method: Principles and Practice (Chap 5), Springer International Publishing, 2017. [8] Sagaut, Toward advanced subgrid models for lattice-Boltzmann-based large-eddy simulation: Theoretical formulations, Comput. Math. Appl., 2010. [9] Malaspinas & Sagaut, Wall model for large-eddy simulation based on the lattice Boltzmann method, J. Comput. Phys., 2014. [10] Manoha & Caruelle, Summary of the LAGOON solutions from the Benchmark problems for Airframe Noise Computations-III Workshop, 21st AIAA/CEAS Aeroacoustics Conference, 2015. [11] Succi, Lattice Boltzmann 2038, Europhys. Lett., 2015. [12] Guo & Shu, Lattice Boltzmann method and its applications in engineering (Chaps 5 & 6), World Scientific, 2013. [13] Fares et al., Validation of a lattice-Boltzmann approach for transonic and supersonic flow simulations, 52nd AIAA Aerospace Sciences Meeting, 2014. [14] Latt et al., Efficient supersonic flow simulations using lattice Boltzmann methods based on numerical equilibria, Phil. Trans. R. Soc. A, 2020. [15] Coreixas & Latt, Compressible lattice Boltzmann methods with adaptive velocity stencils: An interpolation-free formulation, Phys. Fluids, 2020. [16] Renard, Hybrid lattice Boltzmann Method for compressible flows, Aix-Marseille Université, 2021. "
19 novembre à partir de 14:00, Frédéric Alauzet (INRIA/Gamma), Impact de l’adaptation de maillage pour les écoulements turbulents en aéronautique et turbomachine. Vers la certification des solutions numériques ?