Où docteurs et entreprises se rencontrent
Menu
Connexion

Approximations de problèmes d'optimisation // On the approximations of optimization Problems

ABG-138913
ADUM-74744
Sujet de Thèse
05/05/2026 Contrat doctoral
Université de Perpignan Via Domitia
PERPIGNAN - Occitanie - France
Approximations de problèmes d'optimisation // On the approximations of optimization Problems
  • Mathématiques
Analyse variationnelle, Gamma convergence, Optimisation sous contraintes, Perturbations, Régularisation
Variational Analysis, Gamma convergence, Optimisation under constraints, Perturbations, Regularization

Description du sujet

L'optimisation mathématique est une branche des mathématiques et de l'informatique qui regroupe la modélisation, l'analyse et la résolution des problèmes dont l'objectif est de minimiser ou maximiser un critère sous certaines contraintes. De tels problèmes apparaissent naturellement dans des applications provenant de domaines scientifiques variés, par exemple, en physique (problèmes d'équilibre, minimisation d'énergie), en sciences de l'ingénieur (optimisation de rendement), en biochimie (optimisation des réactions biochimiques), en économie (maximisation du profit, équilibre offre/demande), en apprentissage automatique (calibration des
paramètres).
Cette thèse est motivée par le lien fort entre l'optimisation mathématique et les applications concrètes. En effet, dans cette thèse, nous nous intéressons à l'étude de la sensibilité des problèmes d'optimisation. L'approche envisagée est guidée par deux cas de figure
particuliers pouvant être problématiques. Tout d'abord, nous souhaiterions établir des garanties mathématiques sur les solutions des problèmes d'optimisation perturbés par des imprécisions et des incertitudes. Par la suite, nous voudrions développer le point de vue
complémentaire à ce qui précède en approchant des problèmes d'optimisation «non-standards
» par des problèmes plus classiques pour lesquels nous disposons déjà de résultats théoriques et/ou numériques. Certaines applications induisent intrinsèquement de l'incertitude et des imprécisions sur les données utilisées dans les algorithmes de résolution : c'est typiquement le cas dans les problèmes issus de l'apprentissage automatique ou encore des modèles prédictifs. En effet, dans ces problèmes, la calibration des paramètres des modèles sont des solutions retournées par des «solveurs» de problèmes d'optimisation et sont donc des valeurs approchées des véritables solutions. Pour prendre en compte, en partie, ces approximations, les paramètres peuvent être recalibrés à partir des anciennes solutions approchées ce qui peut conduire à accumuler des erreurs et ainsi aboutir à des modèles peu fiables. Par conséquent, une étude mathématique préalable pour garantir une erreur moindre (en dépit de l'imprécision des données d'entrée) peut apporter plus de fiabilité aux modèles. Mathématiquement, l'étude de la sensibilité, dans ce contexte, consiste à développer un cadre assurant notamment que si deux problèmes d'optimisation sont proches (dans un sens à déterminer) alors les solutions le sont.
Toujours en se focalisant sur la culture numérique de l'optimisation, nous pouvons noter que les solveurs actuels peuvent résoudre des classes limitées de problèmes. Plus précisément, les solveurs d'optimisation disponibles sur le marché requièrent des propriétés
géométriques et/ou algébriques particulières pour les contraintes ou les critères à optimiser. Certains problèmes modélisés issus, par exemple, de l'informatique théorique ou de la reconstruction d'images ne satisfont pas nécessairement ces propriétés. La question est
donc de savoir si un problème à géométrie et à propriété algébrique favorables proche du problème initial existe. Dans les contextes où la réponse à cette question est positive, il conviendra, d'une part, de déterminer explicitement ces problèmes «favorables» et, d'autre part, de quantifier l'erreur commise.

Les deux grandes questions posées dans la thèse se rejoignent autour de la notion mathématique de la proximité de problèmes d'optimisation ; une notion à développer formellement au cours de la thèse en se basant sur des notions de proximité existantes mais dont la réponse reste partielle par rapport à nos questions. Les deux questions sont également duales. La première prend en compte une accumulation d'erreurs et interroge sur la cohérence de la solution par rapport à ces erreurs tandis que la seconde question prend en compte un problème d'optimisation idéal qui ne respecte pas les codes classiques pour en construire une version cohérente classique.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Mathematical optimization, a branch of mathematics and computer science, encompasses the modeling, analysis, and solution of problems aimed at minimizing or maximizing a specific criterion subject to certain constraints. Such problems naturally arise in diverse
scientific fields, including physics (equilibrium problems, energy minimization), engineering (yield optimization), biochemistry (biochemical reaction optimization), economics (profit maximization, supply/demand balance), and machine learning (parameter calibration).

This thesis is motivated by the strong connection between mathematical optimization and real-world applications. Specifically , we focus on investigating the sensitivity of optimization problems, guided by two particular challenging scenarios. Firstly , we aim to establish
mathematical guarantees for the solutions of optimization problems that are perturbed by imprecision and uncertainty . Secondly, we intend to develop a complementary perspective by approaching 'non-standard' optimization problems through more classical
formulations for which we already possess theoretical and/or numerical results.

Uncertainty and imprecision in the data used by solving algorithms are inherent in some applications. This is particularly true in problems originating from machine learning or predictive models. In these contexts, the calibration of model parameters relies on
solutions returned by optimization problem 'solvers,' which are inherently approximate values of the true solutions. Recalibrating parameters based on these prior approximate solutions can lead to an accumulation of errors, resulting in unreliable models.
Consequently , a preliminary mathematical study to ensure the minimal possible error (despite the imprecision of the input data) can significantly enhance the reliability of these models. Mathematically , the study of sensitivity in this context involves developing a
framework that guarantees that if two optimization problems are 'close' (in a sense to be formally defined), then their solutions will also be close.

Continuing with the numerical perspective in optimization, we observe that current solvers can only handle limited classes of problems.
More precisely , commercially available optimization solvers typically require specific geometric and/or algebraic properties for the constraints or the objective function being optimized. Certain model-based problems from areas like theoretical computer science or
image reconstruction may not satisfy these properties. This raises the question of whether a problem with favorable geometric and algebraic properties exists that is 'close' to the initial problem. When the answer to this question is affirmative, it becomes necessary to
explicitly determine these 'favorable' problems and to quantify the error introduced by this approximation.

The two main questions addressed in this thesis converge around the mathematical notion of the 'proximity' of optimization problems – a notion that will be formally developed throughout this work, building upon existing concepts of proximity but whose current
understanding remains incomplete with respect to our inquiries. These two questions are essentially dual. The first considers the accumulation of errors and questions the robustness of the solution in the face of these errors, while the second considers an ideal
optimization problem lacking classical properties and aims to construct a coherent classical counterpart.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Début de la thèse : 01/10/2026

Nature du financement

Contrat doctoral

Précisions sur le financement

Concours pour un contrat doctoral

Présentation établissement et labo d'accueil

Université de Perpignan Via Domitia

Etablissement délivrant le doctorat

Université de Perpignan Via Domitia

Ecole doctorale

305 Energie et Environnement

Profil du candidat

Le/la candidat(e) devra être titulaire d'un Master en Mathématiques Fondamentales et/ou Appliquées et avoir de solides notions dans divers champs de l'analyse mathématique. Des compétences numériques et un vif intérêt pour les applications de l'optimisation sont attendues. Langue parlée, lue, écrite : Anglais et/ou Français
The candidate must hold a Master's degree in Fundamental and/or Applied Mathematics and possess a strong understanding of various fields of mathematical analysis. Numerical skills and a keen interest in the applications of optimization are expected. Spoken, read, written language: English and/or French
07/06/2026
Partager via
Postuler
Fermer

Vous avez déjà un compte ?

Nouvel utilisateur ?