Where PhDs and companies meet
Menu
Login

Cadre de raisonnement pour une explicabilité adaptative, intelligible et centrée sur l’humain des systèmes d’intelligence artificielle / A Reasoning Framework for Adaptiv

ABG-138852 Thesis topic
2026-04-30 Public funding alone (i.e. government, region, European, international organization research grant)
Université de Technologie de Belfort Montbéliard
- Bourgogne-Franche-Comté - France
Cadre de raisonnement pour une explicabilité adaptative, intelligible et centrée sur l’humain des systèmes d’intelligence artificielle / A Reasoning Framework for Adaptiv
  • Computer science
Explicabilité de l’IA (XAI), Explicabilité adaptative, IA centrée sur l’humain, IA symbolique, Raisonnement symbolique, ontologie / Explainable AI (XAI), Adaptive Explainability, Human-Centered AI, Symbolic AI, Symbolic Reasoning, Ontology

Topic description

L’explicabilité des systèmes d’intelligence artificielle (IA) est devenue un enjeu scientifique, éthique

et sociétal majeur, en particulier dans des domaines centrés sur l’humain (human-centric) et sen

sibles tels que la santé, la finance ou l’éducation, où les prédictions algorithmiques influencent di

rectement des décisions humaines à fort impact. Dans ces contextes, l’enjeu ne réside plus unique

ment dans la compréhension interne des modèles, mais dans la capacité des systèmes d’IA à com

muniquer leurs raisonnements de manière intelligible, pertinente et contextualisée. Cette évolution

s’inscrit dans un changement de paradigme, passant d’une approche model-centric à une vision user-

centric, centrée sur les besoins et le contexte des utilisateurs. L’explication ne doit plus être

considérée comme une donnée brute, mais comme un processus de communication adaptatif entre

le système d’IA et l’humain. Elle joue ainsi un rôle déterminant dans la justification, la confiance et

l’appropriation des décisions.

L’objectif de cette thèse est de concevoir un cadre formel d’interprétabilité adaptative, capable de

produire des explications différenciées en fonction du profil de l’utilisateur et du contexte d’usage.

Dans une approche centrée sur l’utilisateur, il s’agira de formaliser explicitement les profils des

utilisateurs (niveau d’expertise, rôle, objectifs, contraintes, préférences), ainsi que leurs contextes

d’usage, au sein d’un modèle symbolique et formel, sous la forme d’une ontologie. Cette ontologie

permettra d’orienter le processus d’explication, d’assurer l’interopérabilité entre différents modèles

d’IA, et d’élargir la notion classique d’explicabilité en intégrant des concepts complémentaires centrés

sur l’utilisateur. En structurant les différents types d’explications possibles, ainsi que les relations

entre profils, contextes et formes d’explication (abductives, contrastives, etc.), le modèle symbolique

constituera un support de raisonnement permettant de définir des règles logiques capables d’orienter

dynamiquement le processus d’explication du raisonnement de l’IA. Ce cadre sera intégré au sein

d’un système explicatif couplé à différents types de modèles d’intelligence artificielle (réseaux de

neurones, forêts aléatoires, etc.). Le système sera également capable d’apprendre à partir des

retours des utilisateurs, permettant une mise à jour de l’ontologie en temps réel. 

Enfin, l’impact deces explications adaptatives sera évalué au travers des études de cas menées dans différents

domaines d’application et auprès de profils utilisateurs variés, afin d’analyser leurs effets sur la

compréhension, la confiance et l’appropriation des décisions produites par les systèmes d’IA. Cette

thèse vise à contribuer à une vision renouvelée de l’XAI dans laquelle l’explicabilité n’est plus un ajout

a posteriori, mais une composante centrale de la conception de systèmes d’IA fiables, responsables

et réellement centrés sur l’humain.

Starting date

2026-10-01

Funding category

Public funding alone (i.e. government, region, European, international organization research grant)

Funding further details

2300€ mensuel brut

Presentation of host institution and host laboratory

Université de Technologie de Belfort Montbéliard

Université de Technologie de Belfort Montbéliard : Une des 4 universités française de technologie, a été créée en 1999. Elle forme environ 3000 étudiants par an et est située au coeur d’un des principaux bassins industriel français.

Le laboratoire CIAD[1] (Connaissance et Intelligence Artificielle Distribuées, UR 7533), créé en 2019, est une unité de recherche multi-tutelles (UTBM-UBE) labellisé par l'Institut Carnot ARTS. Le laboratoire CIAD se concentre sur l'intelligence artificielle distribuée et explicable. Les recherches menées au sein du laboratoire couvrent divers domaines, notamment les systèmes multi-agents, la vision artificielle pour la perception de l'environnement et la navigation autonome, l'ingénierie des connaissances et la modélisation sémantique, ainsi que l'apprentissage machine et l'optimisation par méta-heuristique ou bio-inspirée.

Les travaux du laboratoire CIAD visent notamment à développer des méthodologies et des outils pour la modélisation et la simulation de systèmes complexes.

PhD title

Doctorat en Informatique

Country where you obtained your PhD

France

Institution awarding doctoral degree

UTBM

Graduate school

Sciences physiques pour l'ingénieur et microtechniques - SPIM

Candidate's profile

− Un diplôme de master recherche ou équivalent dont la spécialité principale est l’informatique

− Une bonne maîtrise de l’anglais (oral et écrit) est exigée

− Des connaissances en intelligence artificielle, en explicabilité, en ingénierie des connaissances

et en ontologie seront appréciées

− Un bon esprit de travail en équipe

2026-05-19
Partager via
Apply
Close

Vous avez déjà un compte ?

Nouvel utilisateur ?