Où docteurs et entreprises se rencontrent
Menu
Connexion

Intelligence artificielle explicable pour l'optimisation combinatoire - Fusion du raisonnement et de l'apprentissage profond

ABG-135815 Sujet de Thèse
17/02/2026 Contrat doctoral
Logo de
Université d'Artois
Béthune - Les Hauts de France - France
Intelligence artificielle explicable pour l'optimisation combinatoire - Fusion du raisonnement et de l'apprentissage profond
  • Informatique
Intelligence artificielle, Machine Learning, Optimisation combinatoire, Explicabilité

Description du sujet

Contexte :
L’optimisation combinatoire est au cœur de nombreux problèmes décisionnels critiques (logistique, planification industrielle, ordonnancement, conception de réseaux). Ces problèmes, souvent NP-difficiles, imposent des compromis entre qualité de solution, temps de calcul et capacité de généralisation. Les approches récentes de Neural Combinatorial Optimization (GNN, Transformers) montrent un fort potentiel pour apprendre des stratégies de résolution efficaces, mais restent largement opaques, ce qui freine leur adoption dans des contextes industriels ou critiques où la justification et l’auditabilité sont essentielles.

 

Objectifs :
Cette thèse vise à concevoir des solveurs neuronaux explicables pour l’optimisation combinatoire (TSP, VRP, ordonnancement), capables (i) de produire des solutions de haute qualité et (ii) de raisonner de manière itérative via des boucles de rétroaction neuronale (feedback neural networks, feedback alignment, reasoning-in-the-loop), tout en fournissant des explications interprétables (choix locaux, contraintes dominantes, corrections successives). L’hypothèse centrale est que l’intégration de mécanismes de rétroaction améliore la robustesse et génère des signaux explicatifs exploitables par l’humain.

 

Problématiques de recherche : 

La thèse abordera notamment les questions suivantes : comment intégrer des boucles de rétroaction neuronale dans des architectures NCO sans dégrader les performances, comment relier les activations internes du réseau aux contraintes combinatoires explicites du problème, comment définir et évaluer des métriques d'explicabilité adaptées à l'optimisation combinatoire et, enfin, s'il est possible d'extraire des trajectoires de raisonnement exploitables par un décideur humain.

Elle sera réalisée au LGI2A (Université d'Artois) en collaboration avec l'équipe OSMOSE du LISIC (Université du Littoral Côte d'Opale), dans un environnement déjà structuré (benchmarks, jeux de données, premières architectures) permettant un démarrage rapide.

Prise de fonction :

01/09/2026

Nature du financement

Contrat doctoral

Précisions sur le financement

Présentation établissement et labo d'accueil

Université d'Artois

La thèse sera réalisée au LGI2A (Université d'Artois) en collaboration avec l'équipe OSMOSE du LISIC (Université du Littoral Côte d'Opale), dans un environnement déjà structuré (benchmarks, jeux de données, premières architectures) permettant un démarrage rapide.

Profil du candidat

Nous recherchons une candidate ou un candidat titulaire d'un Master 2 (ou diplôme équivalent) en informatique, recherche opérationnelle, mathématiques appliquées ou intelligence artificielle. Une solide maîtrise de l'optimisation combinatoire et de l'algorithmique est attendue, ainsi qu'un bon niveau en apprentissage automatique (en particulier en deep learning).

 

Un intérêt marqué pour les approches hybrides IA/RO et pour l'explicabilité constituera un atout majeur. Des compétences en programmation sont nécessaires ; la maîtrise de Python (et idéalement de PyTorch) est souhaitée.

15/03/2026
Partager via
Postuler
Fermer

Vous avez déjà un compte ?

Nouvel utilisateur ?