Aller au contenu  Aller au menu  Aller à la recherche

Bienvenue - Laboratoire Jacques-Louis Lions

Print this page |

Chiffres-clé

Chiffres clefs

189 personnes travaillent au LJLL

86 permanents

80 chercheurs et enseignants-chercheurs permanents

6 ingénieurs, techniciens et personnels administratifs

103 personnels non permanents

74 doctorants

15 post-doc et ATER

14 émérites et collaborateurs bénévoles

 

Chiffres janvier 2022

 

Lieu et heure
Les exposés du séminaire du Laboratoire Jacques-Louis Lions sont donnés
le vendredi de 14h00 à 15h00,
dans la
Salle du séminaire du Laboratoire Jacques-Louis Lions,
Campus Jussieu, Sorbonne Université, 4 place Jussieu, Paris 5ème,
barre 15-16, 3ème étage, salle 09 (15-16-3-09) ;

ils sont diffusés simultanément par Zoom.
Plan d’accès

 

Chaque vendredi, à partir de 13h30, le lien Zoom pour l’exposé du jour est affiché sur les pages web :
https://www.ljll.math.upmc.fr/seminaire-du-laboratoire
https://www.ljll.math.upmc.fr/seminaire-du-laboratoire/seminaires-de-l-annee-2023
et l’accès à la « salle de séminaire Zoom » est possible à partir de la même heure.

 

Le programme du séminaire, sa version pdf, les résumés des exposés, leurs diaporamas sont disponibles sur ces mêmes pages web.
Les enregistrements vidéo des exposés sont disponibles sur la chaine YouTube du laboratoire. Nouvelle fenêtre.

 

Pour recevoir (ou ne plus recevoir) par courrier électronique chaque mois le programme du mois suivant et chaque vendredi le lien Zoom de l’exposé du jour, envoyer un message à
Seminaire-du-LJLL@ann.jussieu.fr

 

Organisateurs du séminaire
Yves Achdou
Fabrice Bethuel
Albert Cohen
Anne-Laure Dalibard
Yvon Maday
François Murat
Benoît Perthame
Emmanuel Trélat

 


PROGRAMME ET RESUMES DES EXPOSES DU MOIS DE NOVEMBRE 2023


Cliquer ici pour la version pdf des résumés des exposés du mois de novembre 2023 Nouvelle fenêtre

  • 03 novembre 2023
    Relâche (Vacances de la Toussaint)
  • Vendredi 10 novembre 2023 — 14h00
    Exposé donné dans la salle du séminaire du Laboratoire Jacques-Louis Lions avec diffusion simultanée par Zoom
    Cristinel Mardare (Sorbonne Université, Paris)
    Théorèmes d’existence en théorie non linéaire des coques
    article correspondant au séminaire de Cristinel Madare 10 novembre 2023 - 1 MoNouvelle fenêtre
    Résumé (masquer le résumé)
    Un objectif de base en théorie non linéaire des coques est de prédire la déformation d’une coque élastique sous l’action de forces appliquées. Lorsque ces forces sont indépendantes du temps, cet objectif peut être atteint en résolvant ou bien un problème de minimisation, ou bien un problème aux limites associé à un système d’équations aux dérivées partielles non linéaires. Dans les deux cas, l’inconnue est un champ de vecteurs de R^3 défini sur la surface moyenne de la coque avant sa déformation.
    Dans cet exposé, je présenterai la théorie d’existence pour le problème de minimisation. La nature de ce problème dépend de la loi de comportement du matériau élastique et de la géométrie de la surface moyenne de la coque, mais il est dans tous les cas non convexe à cause du principe d’indifférence matérielle.
    Je montrerai d’abord comment la notion de polyconvexité de John Ball peut être adaptée au cas des surfaces (qui remplacent ici les ouverts de R^3) pour résoudre le problème de minimisation lorsque le matériau élastique constituant la coque satisfait certaines hypothèses. Je montrerai ensuite que le modèle de Koiter ne satisfait (malheureusement) pas ces hypothèses, mais qu’il peut être approché par un modèle de coque qui les satisfait.
  • Vendredi 17 novembre 2023 — 14h00
    Exposé donné dans la salle du séminaire du Laboratoire Jacques-Louis Lions avec diffusion simultanée par Zoom
    Milica Tomasevic (Ecole Polytechnique, Palaiseau)
    Particules pour les équations de Keller-Segel parabolique-parabolique dans R^2
    Résumé (masquer le résumé)
    Dans cet exposé, nous étudierons un système de N particules stochastiques en interaction associé aux équations de Keller-Segel parabolique-parabolique modélisant la chimiotaxie. Ce système a une interaction à la fois singulière et non-markovienne (le terme de dérive dépend de toutes les trajectoires passées des particules). Lorsque la sensibilité au produit chimique est suffisamment faible, nous montrons que la solution de ce système de particules existe pour tout N ≥ 2, que sa mesure empirique est tendue N, et que tout point d’accumulation résout un problème de martingale non linéaire, ce qui implique en particulier que sa famille de marginales temporelles résout le système parabolique-parabolique de Keller-Segel dans un sens faible. L’argument principal de la preuve consiste en une « markovianisation » du noyau d’interaction : nous montrons que grosso modo l’interaction deux à deux des trajectoires peut être contrôlée par une interaction coulombienne, comme dans le cas parabolique-elliptique.
    Ce travail est en collaboration avec Nicolas Fournier (Laboratoire de Probabilités, Statistique et Modélisation, Sorbonne Université).
  • Vendredi 24 novembre 2023 — 14h00
    Exposé donné dans la salle du séminaire du Laboratoire Jacques-Louis Lions avec diffusion simultanée par Zoom
    Gilles Francfort (Université Sorbonne Paris Nord, Villetaneuse)
    Le rôle de la stabilité en mécanique du défaut
    Résumé (masquer le résumé)
    La mécanique du défaut est un domaine mal défini qui essaie de modéliser la naissance et la croissance de défauts dans un solide au niveau macroscopique.
    Partant d’un modèle 1d simpliste, j’introduirai la vague notion d’endommagement (la « dégradation » du solide étant le défaut) qui mène à de mauvais modèles et à des régularisations thermodynamiquement suspectes. Ces modèles, basés sur une notion discutable de stabilité, ont cependant l’avantage d’engendrer, après calibration, des modèles à interface qui peuvent à leur tour être vus comme des modèles de rupture fragile. Leur implémentation numérique, quoiqu’également suspecte, permet des comparaisons quantitatives avec les expériences.
    Je montrerai ensuite que l’élasto-plasticité (une loi de comportement aussi (in)discutable que celle des fluides visqueux incompressibles) relève directement de ce type de modèles, tout en bénéficiant de l’avantage que procure la convexité. Malgré celle-ci, l’unicité de la solution du problème d’évolution pose des questions voisines de celles auxquelles sont confrontés les spécialistes d’Euler et de Navier-Stokes.

PROGRAMME ET RESUMES DES EXPOSES DU MOIS DE DECEMBRE 2023


Cliquer ici pour la version pdf des résumés des exposés du mois de décembre 2023 Nouvelle fenêtre

  • 01 décembre 2023
    Relâche (Visite du Laboratoire Jacques-Louis Lions par le Haut Conseil de l’Evaluation de la Recherche et de l’Enseignement Supérieur (HCERES))
  • Vendredi 08 décembre 2023 — 14h00
    Exposé donné dans la salle du séminaire du Laboratoire Jacques-Louis Lions avec diffusion simultanée par Zoom
    Cet exposé aura lieu dans le cadre des Journées FreeFEM 2023 dont ce sera la 15ème édition, voir
    https://freefem.org/ffdays.html
    Euan Spence (Université de Bath)
    Frequency-explicit local error analysis of the FEM applied to the high-frequency Helmholtz equation
    Résumé (masquer le résumé)
    On the one hand, how the global Finite Elements Method (FEM) error depends on frequency for the high-frequency Helmholtz equation has been intensively studied since the work of Ihlenburg and Babuska in the 1990’s. On the other hand, the local FEM error for second-order elliptic partial differential equations has been studied since the work of Nitsche and Schatz in 1974. Perhaps surprisingly, therefore, how the local FEM error depends on frequency for the high-frequency Helmholtz equation has apparently not been rigorously studied in the numerical-analysis literature. This talk will report some new results on this topic obtained in collaboration with Martin Averseng (Université d’Angers) and Jeffrey Galkowski (University College London).
  • Vendredi 15 décembre 2023 — 14h00

    Attention, lieu exceptionnel !
    Cet exposé sera donné dans l’Amphitéâtre 25 (entrée face à la tour 25, niveau dalle Jussieu, Sorbonne Université, 4 place Jussieu, Paris 5ème) ; il sera retransmis simultanément par Zoom.

    Il sera donné dans le cadre de la huitième édition des Leçons Jacques-Louis Lions, qui comprendront également un mini-cours intitulé
    Ensemble Kalman filter : Algorithms, analysis and applications
    qui sera donné les mardi 12, mercredi 13 et jeudi 14 décembre 2023, voir ci-dessous la présentation des Leçons Jacques-Louis Lions 2023, ainsi que la page web
    https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2023-andrew-stuart

    Andrew Stuart (Institut de technologie de Californie)
    Operator learning : Acceleration and discovery of computational models
    Résumé (masquer le résumé)
    Neural networks have shown great success at learning function approximators between spaces X and Y, in the setting where X is a finite dimensional Euclidean space and where Y is either a finite dimensional Euclidean space (regression) or a set of finite cardinality (classification) ; the neural networks learn the approximator from N data pairs (x_n, y_n). In many problems arising in physics it is desirable to learn maps between spaces of functions X and Y ; this may be either for the purposes of scientific discovery, or to provide cheap surrogate models which accelerate computations. New ideas are needed to successfully address this learning problem in a scalable, efficient manner.
    In this talk I will overview the methods that have been introduced in this area and describe theoretical results underpinning the emerging methodologies. Illustrations will be given from a variety of PDE-based problems including learning the solution operator for dissipative PDEs, learning the homogenization operator in various settings, and learning the smoothing operator in data assimilation.

  • Vendredi 22 décembre 2023 — 14h00
    Exposé donné dans la salle du séminaire du Laboratoire Jacques-Louis Lions avec diffusion simultanée par Zoom
    Charles Dapogny (Université Grenoble Alpes)
    Une nouvelle approche pour le ligament topologique basée sur l’analyse asymptotique de petites hétérogénéités
    Résumé (masquer le résumé)
    Les techniques d’optimisation de formes, visant à optimiser le design d’un objet (une pièce mécanique, un tuyau dans lequel circule un fluide, etc.) sous des contraintes mécaniques ou géométriques, suscitent ces dernières années un très fort engouement, nourri par la hausse du coût des matières premières et le besoin impérieux de réaliser des économies d’énergie.
    La plupart des algorithmes numériques d’optimisation de formes reposent sur la sensibilité des fonctions objectif et des contraintes par rapport à de « petites » variations du domaine optimisé, telles que :
    — de petites perturbations du bord de l’ouvert Ω, ce qui donne lieu à la notion de dérivée de forme,
    — l’inclusion d’un petit trou à l’intérieur de Ω, ce qui conduit à la notion de dérivée topologique.
    On peut également imaginer une troisième manière de réaliser de petites variations de Ω par la greffe d’un ligament de faible épaisseur. La notion de « ligament topologique » associée à cette idée est néanmoins difficile à manipuler, en théorie comme en pratique.
    Dans cette présentation, on propose une nouvelle stratégie pour approcher de telles perturbations d’un domaine qui utilise un lien formel avec l’analyse asymptotique du comportement effectif d’un milieu perturbé par de “petites” hétérogénéités. On propose une méthode énergétique simple permettant un calcul relativement aisé de la sensibilité approchée d’une fonction du domaine à l’ajout d’un ligament très fin. Les formules en résultant sont d’un usage aisé dans de nombreuses situations.
    On discutera trois applications de cette stratégie dans le contexte de l’optimisation de structures :
    — l’ajout d’un ligament très fin à une structure au cours d’une démarche « classique » d’optimisation de formes conduite par déformation de sa frontière,
    — l’optimisation des supports (qui se présentent comme des piliers verticaux) d’une structure construite par impression 3d,
    — une initialisation « astucieuse » de l’optimisation d’une structure en treillis (faite d’un assemblage de barres).
  • 29 décembre 2023
    Relâche (Vacances de Noël)
    Bonnes vacances, Joyeux Noël et Bonne Année 2024 à toutes et à tous !

LEÇONS JACQUES-LOUIS LIONS 2023 : ANDREW STUART (12-15 DECEMBRE 2023)


Cliquer ici pour la version pdf du programme des Leçons Jacques-Louis Lions 2023 (Andrew Stuart)Nouvelle fenêtre


Données par Andrew Stuart (Institut de technologie de Californie (Caltech)), les Leçons Jacques-Louis Lions 2023 consisteront en :

— un mini-cours intitulé
Ensemble Kalman filter : Algorithms, analysis and applications
3 séances, les mardi 12, mercredi 13 et jeudi 14 décembre 2023 de 11h à 12h30,
Salle du séminaire du Laboratoire Jacques-Louis Lions,
barre 15-16, 3ème étage, salle 09 (15-16-3-09),
Sorbonne Université, Campus Jussieu, 4 place Jussieu, Paris 5ème,

— et un colloquium intitulé
Operator learning : Acceleration and discovery of computational models
le vendredi 15 décembre 2023 de 14h à 15h,
Amphithéâtre 25,
entrée face à la tour 25, niveau dalle Jussieu,
Sorbonne Université, Campus Jussieu, 4 place Jussieu, Paris 5ème.


Tous les exposés seront donnés en présence et retransmis en temps réel par Zoom.

Le lien Zoom pour suivre à distance la Leçon du jour sera diffusé chaque matin par email à la liste de diffusion du Séminaire du Laboratoire Jacques-Louis Lions.

Ce lien sera également mis en ligne chaque matin sur les pages web
https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2023-andrew-stuart
https://www.ljll.math.upmc.fr/seminaire-du-laboratoire
https://www.ljll.math.upmc.fr/seminaire-du-laboratoire/seminaires-de-l-annee-2023

Attention :ce lien Zoom sera différent chaque jour.


Résumé du mini-cours
Ensemble Kalman filter : Algorithms, analysis and applications
In 1960 Rudolph Kalman [1] published what is arguably the first paper to develop a systematic, principled approach to the use of data to improve the predictive capability of dynamical systems. As our ability to gather data grows at an enormous rate, the importance of this work continues to grow too. Kalman’s paper is confined to linear dynamical systems subject to Gaussian noise ; the work of Geir Evensen [2] in 1994 opened up far wider applicability of Kalman’s ideas by introducing the ensemble Kalman filter.
The ensemble Kalman filter applies to the setting in which nonlinear and noisy observations are used to make improved predictions of the state of a Markov chain. The algorithm results in an interacting particle system combining elements of the Markov chain and the observation process. In these lectures I will introduce a unifying mean-field perspective on the algorithm, derived in the limit of an infinite number of interacting particles. I will then describe how the methodology can be used to study inverse problems, opening up diverse applications beyond prediction in dynamical systems. Finally I will describe analysis of the accuracy of the methodology, both in terms of accuracy and uncertainty quantification ; despite its widespread adoption in applications, a complete mathematical theory is lacking and there are many opportunities for analysis in this area.

Lecture 1 : The algorithm
Lecture 2 : Inverse problems and applications
Lecture 3 : Analysis of accuracy and uncertainty quantification

[1] R. Kalman, A new approach to linear filtering and prediction problems. Journal of Basic Engineering, 82:35–45, 1960.
[2] G. Evensen, Sequential data assimilation with a nonlinear quasi-geostrophic model using Monte Carlo methods to forecast error statistics. Journal of Geophysical Research : Oceans, 99(C5):10143–10162, 1994.


Résumé du colloquium
Operator learning : Acceleration and discovery of computational models
Neural networks have shown great success at learning function approximators between spaces X and Y, in the setting where X is a finite dimensional Euclidean space and where Y is either a finite dimensional Euclidean space (regression) or a set of finite cardinality (classification) ; the neural networks learn the approximator from N data pairs (x_n, y_n). In many problems arising in physics it is desirable to learn maps between spaces of functions X and Y ; this may be either for the purposes of scientific discovery, or to provide cheap surrogate models which accelerate computations. New ideas are needed to successfully address this learning problem in a scalable, efficient manner.
In this talk I will overview the methods that have been introduced in this area and describe theoretical results underpinning the emerging methodologies. Illustrations will be given from a variety of PDE-based problems including learning the solution operator for dissipative PDEs, learning the homogenization operator in various settings, and learning the smoothing operator in data assimilation.


 

Pour consulter les programmes et les résumés de toute l’année en cours et des années précédentes, voir