Séminaire de l'équipe de Probabilités et Statistique

Version imprimableVersion imprimableEnvoyer à un amiEnvoyer à un ami

Séminaire de Probabilités et Statistique

Le mardi de 14h à 15h

en salle de conférences

Comment venir au laboratoire (how to get to the lab) ?

Pour obtenir le lien de visioconférence, veuillez contacter les organisateurs

Organisateurs : Rémi Catellier, Damien Garreau, Yassine Laguel, Radomyra Shevchenko

 

 

Prochaine séance :

  • Mardi 26 mars : Cyril Letrouit (Orsay) : Quelques aspects mathématiques de l'analyse des Transformers résumé

La page de l'équipe Probabilités et Statistique.

À venir :

 

 

Archives :

Saison 2023/2024 :

  • Mardi 12 mars : Alexandre Richard (Central Supélec) :Estimation of several parameters in discretely observed SDEs driven by fractional Brownian motion, résumé
  • Jeudi 8 Février - Salle de réunion Fizeau - 14h00 : Marielle Simon (ICJ - Université Lyon 1), A few scaling limits results for the facilitated exclusion process in 1d résumé
  • Mardi 6 Février : Khazhgali Kozhasov (LJAD, INRIA) : How far is a tensor from being rank-1? résumé
  • Mardi 30 janvier : Guillaume Poly (IRMAR - Université Rennes 1), About the central limit Theorem for linear statistics of beta ensembles and the phenomenon of superconvergence, résumé
  • Mardi 16 janvier : Julien Claisse (Ceremade) : Mean-field Optimization regularized by Fisher Information, résumé
  • Mardi 9 janvier : Yassine Laguel (LJAD) : High Probability and Risk-Averse Guarantees for Stochastic Saddle Point Problems, résumé
  • Mardi 5 décembre : Arshak Minasyan (CREST / ENSAE) : Statistically optimal robust mean and covariance estimation for anisotropic gaussians, résumé
  • Mardi 12 Décembre : Mattia Martini (LJAD) : Kolmogorov equations associated to nonlinear filtering processes: well-posedness on spaces of measures and applications, résume
  • Mardi 28 novembre (distanciel) : Michel Davydov (Brown University) : Replica-mean-field limit of continuous-time fragmentation-interaction-aggregation processes, résumé
  • Mardi 21 novembre : Vladimir Kostic (IIT) : Koopman operator paradigm for data-driven dynamical systems: bridging linear algebra statistical machine learning and neuroscience, résumé
  • Mardi 10 octobre : Loïc Béthencourt (LPSM) : Fractional diffusion limit for a kinetic Fokker-Planck equation with diffusive boundary conditions in the half-line. résumé
  • Mardi 26 septembre : Radomyra Shevchenko (Centrale Marseille / LJAD) : Limit theorems and statistical inference for quadratic variations, résumé
  • Mardi 19 septembre : Franck Picard (LBMC) : Kernel-Based Testing for Single-Cell Differential Analysis, résumé

Saison 2022/2023 :

  • Mardi 9 mai : Etienne Tanré (INRIA Sophia) : Some models of neurons in interaction
  • Mardi 04 avril : Regina Liu (Rutgers University, USA) : Fusion Learning: Combining Statistical Inferences from Heterogenous Data Sources, résumé
  • Mardi 11 avril : Luc Pronzato (Université Côte d'Azur, I3S) : Nested sampling designs with good covering properties, résumé
  • Mardi 21 mars : Xavier Pennec (Université Côte d'Azur / INRIA Sophia) : Geometric statistics with applications to computational anatomy: old & new, résumé
  • Mardi 14 mars : Julien Poisat (Dauphine, CEREMADE) : Localization of a one-dimensional simple random walk among power law renewal obstacles, résumé
  • Jeudi 16 mars salle Fizeau - séminaire commun IMST : Guilherme Ost (Federal University of Rio de Janeiro) : Understanding interactions of biological neural networks via multivariate Hawkes-type processes, résumé
  • Mardi 28 février : Morgan André (Université de Sao Paulo) : Time averages of a metastable system of spiking neurons, résumé .
  • Mardi 7 février : Franck Iutzeler (Université Grenoble Alpes) : Wasserstein Distributionnally Robust Optimization for statistical learning, résumé
  • Mardi 31 janvier : Xavier Erny (CMAP, Polythechnique) : Limite 'annealed' pour un modèle champ-moyen, diffusif et désordonné avec des sauts aléatoires, résumé
  • Mardi 24 janvier : Lorick Huang (INSA Toulouse) : Porfolio optimisation under CVAR constraint with stochastic mirror descent, résumé
  • Mardi 17 janvier : Yassine Laguel (Rutgers) : Robustness for models and algorithms in Machine Learning, résumé
  • Jeudi 12 janvier de 16h à 17h en Salle Fizeau : Joseph Najnudel (Université de Bristol, LJAD) : Application des matrices aléatoires à l’étude de réseaux de neurones, résumé
  • Mardi 8 novembre : Lukas Anzeletti (Supélec), Regularisation by noise for SDEs with distributional drift, résumé
  • Mardi 25 octobre : Hans Kersting (Inria Paris) : Exploration and Implicit Bias due to SGD's Stochasticity, résumé
  • Mardi 18 octobre : Barbara Pascal (Inria Lille) : The Kravchuk transform: a novel covariant representation for discrete signals amenable to zero-based detection tests, résumé
  • Mardi 27 septembre : Rémi Catellier (LJAD) : Regularization by noise for rough differential equations driven by Gaussian rough paths, résumé
  • Mardi 27 septembre : Luc Lehéricy (LJAD) : Deconvolution with unknown noise distribution for multivariate signal, résumé

Saison 2021/2022 :

  • Mardi 28 juin : Benjamin Bobbia (ESILV) : A Donsker’s theorem for data driven local empirical measures, résumé
  • Mardi 31 mai : Gaëtan Cane (LJAD) : Superdiffusion transition for a noisy harmonic chain subject to a magnetic field, résumé
  • Mardi 24 mai : Tomasz Komorowski (Maria Curie Sklodowska University) : Fluctuations of solutions to the KPZ equation on a large size torus, résumé
  • Mardi 3 mai : Céline Duval (Université de Lille) : Interacting Hawkes processes with multiplicative inhibition, résumé
  • Mardi 12 avril : Raphaël Butez (Université de Lille) : Outliers pour le jellium déterminantal et pour les racines de polynômes aléatoires, résumé
  • Mardi 15 mars : Quentin Berger (Sorbonne Université) : Directed polymers and the Stochastic Heat Equation with Lévy noise, résumé
  • Mardi 1er mars : Anne Estrade (MAP5) : Gaussian random fields and Gaussian mixture processes : stochastic geometry, inferential statistics and spatial extremes, résumé
  • Mardi 8 février : Nicolas Keriven (GIPSA) : Graph Neural Networks on Large Random Graphs: Convergence, Stability, Universality, résumé
  • Mardi 25 janvier : William Salkeld (UCA) : Lions calculus and coupled Hopf algebras with applications to probabilistic rough paths, résumé
  • Mardi 18 janvier : André Galligo (UCA) : Flocking of complex roots of random polynomials, under iterated differentiation, résumé
  • Mardi 11 janvier : Clément Bénard (LPSM, Safran) : MDA for random forests: inconsistency, and a practical solution via the Sobol-MDA, résumé
  • Mardi 14 décembre : Guilherme Ost (IM-UFRJ) : Self-Switching Markov Chains: emerging dominance phenomena, résumé
  • Mardi 30 novembre : Eva Löcherbach (Université Paris 1) (annulé) : Strong error bounds and conditional propagation of chaos for systems of interacting neurons in a diffusive scaling, résumé
  • Mardi 23 novembre : William Salkeld (Université Côte d'Azur) (annulé) : Lions calculus and coupled Hopf algebras with applications to probabilistic rough paths, résumé
  • Mardi 16 novembre : Simon Bartels (University of Copenhagen) : Approximate Gaussian process regression as early stopping problem, résumé
  • Mardi 19 octobre : après-midi des doctorants
  • Mardi 5 octobre : Joseph Najnudel (Université Côte d'Azur) : Matrices aléatoires et fonction zeta de Riemann
  • Mardi 28 septembre : Samuel Vaiter (Université Côte d'Azur) : Hyper-Parameter Selection by Algorithmic Differentiation, résumé

Saisons 2017-2018 à 2020-2021.