Where PhDs and companies meet
Menu
Login

Post-doc en intelligence artificielle explicable

ABG-135369 Thesis topic
2026-02-02 Other public funding
Université de Technologie de Belfort Montbéliard
Belfort - Bourgogne-Franche-Comté - France
Post-doc en intelligence artificielle explicable
  • Computer science
  • Communication, information, media, culture
  • Psychology, neurosciences
artificial intelligence, Explainable AI, XAI, HumanAI interaction, HAI, hci, human computer interaction, explainable AI, explainability, human-centred AI

Topic description

Sujet : Supervision de robots-tracteurs autonomes dans les entrepôts et les plateformes logistiques

 

Description de l’établissement

L’Université de Technologie de Belfort-Montbéliard (UTBM) est une université technologique de premier plan en France, reconnue pour ses liens étroits avec le secteur économique et son orientation vers l’innovation. Accueillant environ 3 000 étudiants en cycle ingénieur, master et doctorat, l’UTBM est un acteur majeur dans les domaines de l’énergie, des transports et de l’industrie du futur. L’université s’engage à faire progresser la technologie au service de l’humanité et des entreprises. Son approche interdisciplinaire favorise l’innovation et la collaboration au sein d’un environnement dynamique d’enseignement et de recherche.

 

Description du poste

Il s’agit d’un poste de chercheur postdoctoral à temps plein, en présentiel, en explicabilité, basé à Belfort. Le poste implique la conduite de recherches avancées dans le domaine, la réalisation d’analyses de données et la contribution à des expérimentations en laboratoire. La collaboration avec des équipes interdisciplinaires ainsi que la présentation des résultats de recherche à la communauté scientifique constituent des aspects essentiels de la fonction.

 

Details

Les entrepôts et les plateformes logistiques (EPL) jouent un rôle essentiel dans la croissance économique et la compétitivité des entreprises, en connectant l'industrie nationale à la chaîne logistique mondiale. Actuellement, elles sont soumises à une pression importante sur plusieurs fronts, notamment la pénurie de conducteurs de plateformes logistiques et attractivité du secteur en général, la saturation des quais due à l’augmentation de volumes et le progrès du e-commerce, les risques pour la sécurité des opérateurs sur le site, ainsi que des préoccupations environnementales (émissions de CO2, nuisance sonore) et l’engagement sociétal de réduire à quasi 0 les émissions des GES d'ici à 2030.

Dans ce contexte, l’objectif du projet ANR xHUB « Plateformes de logistiques autonomes » est de s’attaquer à ces nombreux problèmes auxquels les EPL sont confrontées, en développant et en testant des robots-tracteurs autonomes et éco-responsables pour réaliser les opérations de manutention sur site. Ces robots-tracteurs seront supervisés par des opérateurs et « cohabiteront » avec les opérationnels qui travaillent dans les EPL. Le projet soulève ainsi la question de la conception du système de supervision et celle du travail des opérateurs : Quelles seront leurs tâches ? Quelles devront être les fonctionnalités du système ? De quelles informations auront-ils besoin ? Que faut-il concevoir en termes d’interface utilisateur et d’interaction humain-machine ? Compte tenu du fait que le système inclura de l’Intelligence artificielle, quels seront les besoins éventuels des utilisateurs en termes d’explicabilité, qui renvoie à la capacité d’un système d’IA de produire des explications de ces « prédictions » ? Enfin, quelles seront les implications pour les opérateurs d’EPL en termes de transformations de leurs métiers et d’organisation du travail ?

Contexte scientifique

Ce poste s’inscrit dans le cadre de ce projet ANR portant sur l’intégration de l’intelligence artificielle dans des environnements robotiques collaboratifs. Les travaux récents montrent que l’explicabilité est un enjeu majeur pour la confiance, la sécurité et l’acceptabilité des systèmes d’IA, en particulier lorsque ces systèmes interagissent avec des opérateurs humains dans des contextes opérationnels. L’explicabilité, entendue comme la capacité d’un système à fournir des explications compréhensibles sur ses décisions, constitue un champ de recherche structuré en méthodes algorithmiques, modèles cognitifs et dynamiques d’interaction.

Le/La post-doctorant(e) travaillera à l’intersection de l’interface homme-machine (IHM), de l’IA explicable et de la robotique, avec pour objectif de concevoir, formaliser et évaluer des approches d’explication adaptées aux besoins des utilisateurs et aux contraintes des systèmes autonomes.

Tâches associées au poste

  • Le ou la candidate sélectionné(e) contribuera aux activités du projet incluant les éléments suivants.
  • Analyse des besoins en explicabilité dans un contexte d’interaction humain robot.
  • Conception et formalisation de modèles d’explication adaptés aux systèmes robotiques intelligents.
  • Développement ou adaptation de méthodes d’explicabilité issues de l’état de l’art (par exemple LIME, SHAP, modèles attentionnels, explications contrefactuelles).
  • Conception et prototypage d’interfaces d’explicabilité pour des opérateurs humains.
  • Évaluation expérimentale des explications générées, incluant des études utilisateurs.
  • Analyse des effets des explications sur la confiance, la charge cognitive et la qualité de la prise de décision humaine.
  • Identification des biais ou limites des approches d’explicabilité dans des systèmes embarqués.Formalisation de recommandations pour l’intégration de l’IA explicable dans la robotique collaborative.

Qualification ou formation

  • Doctorat en intelligence artificielle, informatique, interaction homme machine, robotique ou domaine connexe.
  • Une expérience dans l’un des domaines suivants constitue un atout important : IA explicable, apprentissage automatique, facteurs humains, robotique interactive.

Détails du contrat

  • Date de recrutement prévue : 1er mars 2026.
  • Durée du CDD : Un an.
  • Le lieu de travail : Le laboratoire Connaissance et Intelligence Artificielle Distribuées (CIAD), Université de technologie de Belfort Montbéliard (UTBM), Belfort, France.
  • Encadrants : Dr. Yazan Mualla (UTBM) en coopération avec Dr. Francoise Fessant (Orange, Paris/région parisienne).

Processus de candidature

Les candidatures doivent être envoyées à Dr. Yazan Mualla (yazan.mualla  utbm.fr) par email. Le dossier de candidature doit contenir :

  • Un CV détaillé,
  • Une copie du diplôme de doctorat ou tout document attestant du niveau du doctorat (Attestation de réussite),
  • Références et/ou une à deux lettres de recommandation.
 
 

Starting date

2026-03-01

Funding category

Other public funding

Funding further details

ANR

Presentation of host institution and host laboratory

Université de Technologie de Belfort Montbéliard
  • Le lieu de travail : Le laboratoire Connaissance et Intelligence Artificielle Distribuées (CIAD), Université de technologie de Belfort Montbéliard (UTBM), Belfort, France.
  • Encadrants : Dr. Yazan Mualla (UTBM) en coopération avec Dr. Francoise Fessant (Orange, Paris/région parisienne).

Candidate's profile

  • Compétences et qualités souhaitées
  • Connaissances solides en intelligence artificielle et en apprentissage automatique.
  • Maîtrise des méthodes d’explicabilité de l’IA ou intérêt fort pour ce domaine.
  • Compétences en interaction homme machine, notamment en conception et évaluation de dispositifs interactifs.
  • Connaissance des enjeux liés aux facteurs humains dans les systèmes intelligents.
  • Capacité à mener des expérimentations et des études utilisateurs.
  • Connaissances en analyse statistique ou en méthodes expérimentales.
  • Capacité à travailler dans un environnement de recherche interdisciplinaire.
  • Un niveau avancé en français.
  • Un bon niveau en anglais.
2026-02-28
Partager via
Apply
Close

Vous avez déjà un compte ?

Nouvel utilisateur ?