Aller au contenu  Aller au menu  Aller à la recherche

Bienvenue - Laboratoire Jacques-Louis Lions

Print this page |

Un poste de lecturer IA est annoncé sur le site de SCAI

Chiffres-clé

Chiffres clefs

189 personnes travaillent au LJLL

86 permanents

80 chercheurs et enseignants-chercheurs permanents

6 ingénieurs, techniciens et personnels administratifs

103 personnels non permanents

74 doctorants

15 post-doc et ATER

14 émérites et collaborateurs bénévoles

 

Chiffres janvier 2022

 

Séminaire du LJLL - 19 11 2021 14h00 : D. Slepčev

Vendredi 19 novembre 2021 — 14h00
Exposé en mode hybride avec retransmission par Zoom en temps réel

Cet exposé aura lieu dans le cadre de la sixième édition des Leçons Jacques-Louis Lions, qui comprendront également un mini-cours intitulé
Variational problems and PDE on random structures :
analysis and applications to data science
les mardi 16, mercredi 17 et jeudi 18 novembre 2021 de 12h à 13h15, voir la page
https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2021-dejan-slepcev

Attention, lieu exceptionnel !

L’exposé sera donné en personne dans l’Amphithéâtre Durand, bâtiment Esclangon (*),
niveau dalle Jussieu, première porte à gauche immédiatement après l’escalier étroit qui descend le long du mur vers les caves Esclangon,
dans le respect des consignes sanitaires (port du masque et distanciation).
L’exposé sera également retransmis en temps réel par Zoom.

(*) Le bâtiment Esclangon est situé à l’angle sud-est du Campus Jussieu : prendre à droite en entrant sur le campus par l’entrée principale, place Jussieu ; l’entrée du bâtiment se trouve après la tour 66

Cliquer ici pour une affichette des dates et LIEUX des Leçons Jacques-Louis Lions 2021 (Dejan Slepčevl)Nouvelle fenêtre

Dejan Slepčev (Université Carnegie Mellon, Pittsburgh)
Machine learning meets calculus of variations
Résumé
Modern data-acquisition technology produces a wealth of data about the world we live in. The goal of machine learning is to extract and interpret the information the data sets contain. This leads to a variety of learning tasks, many of which seek to optimize a functional, defined on the available random sample.
The functionals take as the input the available data samples, yet we seek to make conclusions about the true distribution of data. To compare the outcomes based on finite data and the ideal outcomes that one would have if full information is available, we study the asymptotic properties of the discrete optimization problems based on finite random samples. We will discuss how calculus of variations and partial differential equations provide tools to compare the discrete and continuum descriptions for many relevant problems. Furthermore, we will discuss how the insights from analysis can be used to guide the design of the functionals used in machine learning.