Théorie des systèmes de dimension infinie pour les réseaux de neurones // A control theory perspective on infinite-dimensional neural networks
|
ABG-139112
ADUM-75014 |
Thesis topic | |
| 2026-05-13 | Public funding alone (i.e. government, region, European, international organization research grant) |
Université Grenoble Alpes
Saint Martin d'Hères cedex - Auvergne-Rhône-Alpes - France
Théorie des systèmes de dimension infinie pour les réseaux de neurones // A control theory perspective on infinite-dimensional neural networks
- Computer science
synthèse de commande et d'observateurs, systèmes dynamiques non-linéaires, systèmes de dimension infinie, réseau de neurones
control and observer design, nonlinear dynamical systems, infinite-dimensional systems, neural networks
control and observer design, nonlinear dynamical systems, infinite-dimensional systems, neural networks
Topic description
Cette thèse de doctorat propose une approche par la théorie des systèmes des réseaux de neurones de dimension infinie, en liant les modèles discrets à grande échelle et les systèmes dynamiques continus. Les travaux commenceront par formaliser le lien entre les réseaux de neurones récurrents résiduels (RNN) et les équations différentielles ordinaires (ODE) neuronales à l'aide d'outils de la théorie du contrôle, comme le cadre des perturbations singulières, afin de gérer des échelles de temps distinctes entre les données d'entrée et la dynamique du réseau.
Un deuxième axe consistera à traduire les exigences de l'apprentissage automatique — telles que la mémoire décroissante et la stabilité — en propriétés de stabilité de Lyapunov, de contraction et de robustesse des ODE neuronales. En utilisant des conditions de secteur pour les fonctions d'activation, la thèse développera des méthodes de Lyapunov pour évaluer ces propriétés, avec un accent particulier sur la stabilité incrémentale entrée-état. Des simulations numériques valideront les conditions théoriques et leur applicabilité aux réseaux de grande dimension, offrant potentiellement des garanties théoriques pour des architectures existantes comme les unités récurrentes à porte (GRU) et orientant l'entraînement en imposant des contraintes de stabilité.
Enfin, la thèse réinterprétera l'entraînement des RNN comme la synthèse d'observateurs, en le considérant comme un problème d'estimation de paramètres où l'observabilité dépend des données d'entrée. Inspirée par les avancées récentes dans les champs neuronaux biologiques, cette étude analysera l'observabilité des paramètres du réseau pour des GRU monocouches et explorera son lien avec la complexité de l'entraînement au moyen de simulations.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
This PhD thesis proposes a control theory perspective on infinite-dimensional neural networks, addressing the gap between discrete-time large-scale models and continuous-time dynamical systems. The research will first formalize the link between residual recurrent neural networks (RNNs) and Neural Ordinary Differential Equations (ODEs) using control theory tools, such as the singular perturbation framework, to manage distinct time-scales between input data and network dynamics.
A second focus will be on translating machine learning requirements—such as fading memory and stability—into Lyapunov stability, contraction, and robustness properties of Neural ODEs. By employing sector conditions for activation functions, the thesis will develop Lyapunov methods to assess these properties, with a particular emphasis on incremental input-to-state stability. Numerical simulations will validate the theoretical conditions and their applicability to high-dimensional networks, potentially offering theoretical guarantees for existing architectures like gated recurrent units (GRUs) and informing training by imposing stability constraints.
Finally, the thesis will reinterpret the training of RNNs through an observer design lens, framing it as a parameter estimation problem where observability depends on the input data. Inspired by recent advances in biological neural fields, the work will analyze the observability of network parameters for single-layer GRUs and investigate its relationship with training complexity through simulations.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/2026
Un deuxième axe consistera à traduire les exigences de l'apprentissage automatique — telles que la mémoire décroissante et la stabilité — en propriétés de stabilité de Lyapunov, de contraction et de robustesse des ODE neuronales. En utilisant des conditions de secteur pour les fonctions d'activation, la thèse développera des méthodes de Lyapunov pour évaluer ces propriétés, avec un accent particulier sur la stabilité incrémentale entrée-état. Des simulations numériques valideront les conditions théoriques et leur applicabilité aux réseaux de grande dimension, offrant potentiellement des garanties théoriques pour des architectures existantes comme les unités récurrentes à porte (GRU) et orientant l'entraînement en imposant des contraintes de stabilité.
Enfin, la thèse réinterprétera l'entraînement des RNN comme la synthèse d'observateurs, en le considérant comme un problème d'estimation de paramètres où l'observabilité dépend des données d'entrée. Inspirée par les avancées récentes dans les champs neuronaux biologiques, cette étude analysera l'observabilité des paramètres du réseau pour des GRU monocouches et explorera son lien avec la complexité de l'entraînement au moyen de simulations.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
This PhD thesis proposes a control theory perspective on infinite-dimensional neural networks, addressing the gap between discrete-time large-scale models and continuous-time dynamical systems. The research will first formalize the link between residual recurrent neural networks (RNNs) and Neural Ordinary Differential Equations (ODEs) using control theory tools, such as the singular perturbation framework, to manage distinct time-scales between input data and network dynamics.
A second focus will be on translating machine learning requirements—such as fading memory and stability—into Lyapunov stability, contraction, and robustness properties of Neural ODEs. By employing sector conditions for activation functions, the thesis will develop Lyapunov methods to assess these properties, with a particular emphasis on incremental input-to-state stability. Numerical simulations will validate the theoretical conditions and their applicability to high-dimensional networks, potentially offering theoretical guarantees for existing architectures like gated recurrent units (GRUs) and informing training by imposing stability constraints.
Finally, the thesis will reinterpret the training of RNNs through an observer design lens, framing it as a parameter estimation problem where observability depends on the input data. Inspired by recent advances in biological neural fields, the work will analyze the observability of network parameters for single-layer GRUs and investigate its relationship with training complexity through simulations.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/2026
Funding category
Public funding alone (i.e. government, region, European, international organization research grant)
Funding further details
Concours pour un contrat doctoral
Presentation of host institution and host laboratory
Université Grenoble Alpes
Institution awarding doctoral degree
Université Grenoble Alpes
Graduate school
220 EEATS - Electronique, Electrotechnique, Automatique, Traitement du Signal
Candidate's profile
Ce sujet de thèse nécessite principalement de solides compétences en théorie du contrôle et en mathématiques (niveau Grandes Écoles et/ou Master en automatique). De très bons résultats dans le cursus d'ingénierie ou de master, notamment dans les disciplines liées à l'automatique, seront un atout pour ce projet. Les stages ou projets de recherche réalisés avant la thèse seront particulièrement appréciés. Le ou la candidate devra également maîtriser Matlab ou Python (méthodes numériques, simulations).
This thesis topic mainly requires good skills in control theory and mathematics (Grandes Ecoles and/or Master in control theory). Very good results in the engineering curriculum or master in the topics related to automatic control will constitute strengths to the proposed subject. Research internships/projects conducted before the PhD will be greatly appreciated. The candidate shall also become familiar with Matlab or Python (numerical methods, simulations).
This thesis topic mainly requires good skills in control theory and mathematics (Grandes Ecoles and/or Master in control theory). Very good results in the engineering curriculum or master in the topics related to automatic control will constitute strengths to the proposed subject. Research internships/projects conducted before the PhD will be greatly appreciated. The candidate shall also become familiar with Matlab or Python (numerical methods, simulations).
2026-05-31
Apply
Close
Vous avez déjà un compte ?
Nouvel utilisateur ?
Get ABG’s monthly newsletters including news, job offers, grants & fellowships and a selection of relevant events…
Discover our members
SUEZ
Aérocentre, Pôle d'excellence régional
ONERA - The French Aerospace Lab
Medicen Paris Region
ANRT
Nantes Université
Nokia Bell Labs France
Servier
ADEME
ASNR - Autorité de sûreté nucléaire et de radioprotection - Siège
Généthon
Institut Sup'biotech de Paris
Ifremer
Tecknowmetrix
Laboratoire National de Métrologie et d'Essais - LNE
Groupe AFNOR - Association française de normalisation
TotalEnergies



