Cadre de raisonnement pour une explicabilité adaptative, intelligible et centrée sur l’humain des systèmes d’intelligence artificielle / A Reasoning Framework for Adaptiv
| ABG-138852 | Thesis topic | |
| 2026-04-30 | Public funding alone (i.e. government, region, European, international organization research grant) |
- Computer science
Topic description
L’explicabilité des systèmes d’intelligence artificielle (IA) est devenue un enjeu scientifique, éthique
et sociétal majeur, en particulier dans des domaines centrés sur l’humain (human-centric) et sen
sibles tels que la santé, la finance ou l’éducation, où les prédictions algorithmiques influencent di
rectement des décisions humaines à fort impact. Dans ces contextes, l’enjeu ne réside plus unique
ment dans la compréhension interne des modèles, mais dans la capacité des systèmes d’IA à com
muniquer leurs raisonnements de manière intelligible, pertinente et contextualisée. Cette évolution
s’inscrit dans un changement de paradigme, passant d’une approche model-centric à une vision user-
centric, centrée sur les besoins et le contexte des utilisateurs. L’explication ne doit plus être
considérée comme une donnée brute, mais comme un processus de communication adaptatif entre
le système d’IA et l’humain. Elle joue ainsi un rôle déterminant dans la justification, la confiance et
l’appropriation des décisions.
L’objectif de cette thèse est de concevoir un cadre formel d’interprétabilité adaptative, capable de
produire des explications différenciées en fonction du profil de l’utilisateur et du contexte d’usage.
Dans une approche centrée sur l’utilisateur, il s’agira de formaliser explicitement les profils des
utilisateurs (niveau d’expertise, rôle, objectifs, contraintes, préférences), ainsi que leurs contextes
d’usage, au sein d’un modèle symbolique et formel, sous la forme d’une ontologie. Cette ontologie
permettra d’orienter le processus d’explication, d’assurer l’interopérabilité entre différents modèles
d’IA, et d’élargir la notion classique d’explicabilité en intégrant des concepts complémentaires centrés
sur l’utilisateur. En structurant les différents types d’explications possibles, ainsi que les relations
entre profils, contextes et formes d’explication (abductives, contrastives, etc.), le modèle symbolique
constituera un support de raisonnement permettant de définir des règles logiques capables d’orienter
dynamiquement le processus d’explication du raisonnement de l’IA. Ce cadre sera intégré au sein
d’un système explicatif couplé à différents types de modèles d’intelligence artificielle (réseaux de
neurones, forêts aléatoires, etc.). Le système sera également capable d’apprendre à partir des
retours des utilisateurs, permettant une mise à jour de l’ontologie en temps réel.
Enfin, l’impact deces explications adaptatives sera évalué au travers des études de cas menées dans différents
domaines d’application et auprès de profils utilisateurs variés, afin d’analyser leurs effets sur la
compréhension, la confiance et l’appropriation des décisions produites par les systèmes d’IA. Cette
thèse vise à contribuer à une vision renouvelée de l’XAI dans laquelle l’explicabilité n’est plus un ajout
a posteriori, mais une composante centrale de la conception de systèmes d’IA fiables, responsables
et réellement centrés sur l’humain.
Starting date
Funding category
Funding further details
Presentation of host institution and host laboratory
Université de Technologie de Belfort Montbéliard : Une des 4 universités française de technologie, a été créée en 1999. Elle forme environ 3000 étudiants par an et est située au coeur d’un des principaux bassins industriel français.
Le laboratoire CIAD[1] (Connaissance et Intelligence Artificielle Distribuées, UR 7533), créé en 2019, est une unité de recherche multi-tutelles (UTBM-UBE) labellisé par l'Institut Carnot ARTS. Le laboratoire CIAD se concentre sur l'intelligence artificielle distribuée et explicable. Les recherches menées au sein du laboratoire couvrent divers domaines, notamment les systèmes multi-agents, la vision artificielle pour la perception de l'environnement et la navigation autonome, l'ingénierie des connaissances et la modélisation sémantique, ainsi que l'apprentissage machine et l'optimisation par méta-heuristique ou bio-inspirée.
Les travaux du laboratoire CIAD visent notamment à développer des méthodologies et des outils pour la modélisation et la simulation de systèmes complexes.
Website :
PhD title
Country where you obtained your PhD
Institution awarding doctoral degree
Graduate school
Candidate's profile
− Un diplôme de master recherche ou équivalent dont la spécialité principale est l’informatique
− Une bonne maîtrise de l’anglais (oral et écrit) est exigée
− Des connaissances en intelligence artificielle, en explicabilité, en ingénierie des connaissances
et en ontologie seront appréciées
− Un bon esprit de travail en équipe
Vous avez déjà un compte ?
Nouvel utilisateur ?
Get ABG’s monthly newsletters including news, job offers, grants & fellowships and a selection of relevant events…
Discover our members
Nantes Université
Nokia Bell Labs France
ASNR - Autorité de sûreté nucléaire et de radioprotection - Siège
Medicen Paris Region
Généthon
Aérocentre, Pôle d'excellence régional
Tecknowmetrix
ANRT
ADEME
SUEZ
TotalEnergies
Groupe AFNOR - Association française de normalisation
Servier
Ifremer
ONERA - The French Aerospace Lab
Laboratoire National de Métrologie et d'Essais - LNE
Institut Sup'biotech de Paris
