Apprentissage multimodal distribué pour la localisation et la classification coopératives de sources acoustiques // Distributed multimodal learning for cooperative acoustic source localization and classification
| ABG-138325 | Sujet de Thèse | |
| 13/04/2026 | Financement public/privé |
CEA Paris-Saclay Laboratoire Instrumentation Intelligente, Distribuée et Embarquée
Saclay
Apprentissage multimodal distribué pour la localisation et la classification coopératives de sources acoustiques // Distributed multimodal learning for cooperative acoustic source localization and classification
- Robotique
Automatique, Robotique / Sciences pour l’ingénieur / Data intelligence dont Intelligence Artificielle / Défis technologiques
Description du sujet
Dans de nombreux environnements complexes, tels que les sites industriels, bâtiments sinistrés, espaces publics, il est nécessaire de détecter et localiser automatiquement des événements sonores (chutes, alarmes, voix, pannes mécaniques). Les plateformes mobiles équipés de caméras et de microphones constituent une solution prometteuse, mais une seule plateforme reste limité : son réseau de microphone donne une direction approximative vers la source, mais pas une position précise dans l'espace, et sa caméra peut être obstruée. Ce sujet propose d'étudier comment des multi-plateformes, chacune portant une unité audio-visuelle calibrée, peuvent collaborer pour localiser et classifier ces événements en 3D. Chaque plateforme analyse ses propres observations audio-visuelles et partage une estimation de la direction de la source avec ses voisines ; le réseau combine ensuite ces estimations pour reconstruire la position de l'événement et l'identifier. Les résultats attendus sont un système de localisation coopérative robuste aux occultations et aux défaillances partielles.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
In many complex environments, such as industrial sites, disaster-stricken buildings, or public spaces, it is necessary to automatically detect and localize sound events (falls, alarms, voices, mechanical failures). Mobile platforms equipped with cameras and microphones represent a promising solution, but a single platform remains limited: its microphone array provides an approximate direction towards the source but not a precise position in space, and its camera may be obstructed. This thesis proposes to study how a network of mobile platform, each carrying a calibrated audio-visual unit, can collaborate to localize and classify such events in 3D. Each platform analyses its own audio-visual observations and shares an estimate of the source direction with its neighbours; the network then combines these estimates to reconstruct the position of the event and identify it. The expected outcomes are a cooperative localization system that is robust to occlusions and partial platform failures.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département d’Instrumentation Numérique
Service : Service Monitoring, Contrôle et Diagnostic
Laboratoire : Laboratoire Instrumentation Intelligente, Distribuée et Embarquée
Date de début souhaitée : 01-10-2026
Ecole doctorale : Sciences et Technologies de l’Information et de la Communication (STIC)
Directeur de thèse : NGOLE MBOULA Fred Maurice
Organisme : CEA
Laboratoire : DRT/LIST/DIN/SMCD/LIIDE
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
In many complex environments, such as industrial sites, disaster-stricken buildings, or public spaces, it is necessary to automatically detect and localize sound events (falls, alarms, voices, mechanical failures). Mobile platforms equipped with cameras and microphones represent a promising solution, but a single platform remains limited: its microphone array provides an approximate direction towards the source but not a precise position in space, and its camera may be obstructed. This thesis proposes to study how a network of mobile platform, each carrying a calibrated audio-visual unit, can collaborate to localize and classify such events in 3D. Each platform analyses its own audio-visual observations and shares an estimate of the source direction with its neighbours; the network then combines these estimates to reconstruct the position of the event and identify it. The expected outcomes are a cooperative localization system that is robust to occlusions and partial platform failures.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département d’Instrumentation Numérique
Service : Service Monitoring, Contrôle et Diagnostic
Laboratoire : Laboratoire Instrumentation Intelligente, Distribuée et Embarquée
Date de début souhaitée : 01-10-2026
Ecole doctorale : Sciences et Technologies de l’Information et de la Communication (STIC)
Directeur de thèse : NGOLE MBOULA Fred Maurice
Organisme : CEA
Laboratoire : DRT/LIST/DIN/SMCD/LIIDE
Nature du financement
Financement public/privé
Précisions sur le financement
Présentation établissement et labo d'accueil
CEA Paris-Saclay Laboratoire Instrumentation Intelligente, Distribuée et Embarquée
Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département d’Instrumentation Numérique
Service : Service Monitoring, Contrôle et Diagnostic
Profil du candidat
Diplôme d’ingénieur.e ou Master 2 en traitement du signal et des images, robotique, intelligence artificielle, ou domaine équivalent.
Postuler
Fermer
Vous avez déjà un compte ?
Nouvel utilisateur ?
Vous souhaitez recevoir nos infolettres ?
Découvrez nos adhérents
SUEZ
Groupe AFNOR - Association française de normalisation
ADEME
Aérocentre, Pôle d'excellence régional
ANRT
TotalEnergies
Institut Sup'biotech de Paris
ASNR - Autorité de sûreté nucléaire et de radioprotection - Siège
Medicen Paris Region
Servier
Nantes Université
Tecknowmetrix
Laboratoire National de Métrologie et d'Essais - LNE
Ifremer
ONERA - The French Aerospace Lab
Nokia Bell Labs France
Généthon
-
EmploiRef. 137159LA BOHALLE , Pays de la Loire , FranceHM.CLAUSE
Project Manager – Genomics and Sequencing Technology Development
Expertises scientifiques :Biotechnologie
Niveau d’expérience :Confirmé
-
EmploiRef. 137563Montréal, Canada
Centre de recherche du CHUMProfesseur.e-chercheur.e - Radiochimie pour le développement et la validation de radiotraceurs utilisés en imagerie médicale
Expertises scientifiques :Chimie
Niveau d’expérience :Sénior
