Modélisation conjointe du workflow chirurgical et du contenu visuel pour l'aide à l'apprentissage en chirurgie HoLEP // Joint Modeling of Surgical Workflow and Visual Content for Training Support in HoLEP Surgery
|
ABG-138598
ADUM-73902 |
Sujet de Thèse | |
| 21/04/2026 | Contrat doctoral |
Université Grenoble Alpes
LA TRONCHE - Auvergne-Rhône-Alpes - France
Modélisation conjointe du workflow chirurgical et du contenu visuel pour l'aide à l'apprentissage en chirurgie HoLEP // Joint Modeling of Surgical Workflow and Visual Content for Training Support in HoLEP Surgery
- Biologie
analyse de flux chirurgicaux, représentation visuelle chirurgicale, apprentissage profond, endoscopie urologique, apprentissage faiblement supervisé, vision par ordinateur médicale
surgical workflow analysis, surgical visual representation, deep learning, urological endoscopy, weakly supervised learning, medical computer vision
surgical workflow analysis, surgical visual representation, deep learning, urological endoscopy, weakly supervised learning, medical computer vision
Description du sujet
L'hypertrophie bénigne de la prostate (HPB) touche jusqu'à 50 % des hommes de plus de 60 ans et constitue une cause fréquente de symptômes urinaires obstructifs. Recommandée par l'Association Européenne d'Urologie comme traitement de l'HPB, l'énucléation prostatique au laser Holmium (HoLEP) est une intervention endoscopique mini-invasive techniquement exigeante dont la maîtrise repose sur le compagnonnage, sans critère objectif de progression. Cette situation a conduit certains centres à abandonner la technique en cours d'apprentissage dans une étude multicentrique prospective [1]. Atteindre la maîtrise de ce geste nécessite entre 20 et 350 cas selon les critères retenus [2, 3]. Bien que les simulateurs soient de plus en plus recommandés par les sociétés savantes et les instances pour l'apprentissage de la chirurgie, leur validité prédictive pour des interventions complexes comme la HoLEP n'est pas encore démontrée. Le geste central — identifier et suivre le plan de clivage adénome/capsule — conditionne directement les résultats fonctionnels et les complications.
Au CHU Grenoble Alpes, la thèse de Clément Sarrazin (1A Edisce), urologue au CHUGA, formalise la procédure sous forme de modèle de processus chirurgical (SPM) et constitue un corpus de vidéos annotées en phases et étapes. Ces annotations capturent la structure macroscopique, mais pas les informations visuelles comme l'orientation de l'endoscope, la qualité d'exposition ou les plans opératoires. Les conditions visuelles propres au HoLEP — artefacts de saturation dus au laser, fumée, irrigation continue, faible texture tissulaire de la capsule prostatique — diffèrent fondamentalement de celles d'autres interventions endoscopiques pour lesquelles des méthodes d'analyse automatique existent (e.g. cholécystectomie laparoscopique [4]), rendant le transfert direct de modèles pré-entraînés problématique [5].
Cette thèse s'appuie sur les travaux de l'équipe GMCAO du laboratoire TIMC en prédiction de la qualité d'exposition chirurgicale, constitution de datasets multimodaux, feedback formatif et détection de déviations opératoires [6-11], et les étend à HoLEP dans un cadre faiblement supervisé. Trois objectifs structurent le travail : (i) reconnaissance robuste des phases et étapes chirurgicales ; (ii) apprentissage de représentations visuelles de l'état opératoire sans annotation spatiale dense ; (iii) identification de segments atypiques par modélisation de la distribution experte et analyse de la variabilité temporelle, confrontée à l'analyse de l'expert clinicien partenaire.
La collaboration entre le doctorant scientifique et le doctorant clinicien assurera la pertinence clinique tout au long du projet, notamment lors de la validation des segments atypiques. Ce travail s'inscrit dans la surgical data science [5] et vise des contributions méthodologiques applicables au-delà du HoLEP, en réponse aux besoins des cliniciens pour standardiser la qualité des gestes médico-chirurgicaux.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Benign prostatic hyperplasia (BPH) affects up to 50% of men over 60 and is a common cause of obstructive urinary symptoms. Recommended by the European Association of Urology as the reference treatment of BPH, Holmium laser enucleation of the prostate (HoLEP) is a technically demanding minimally invasive procedure whose mastery relies on apprenticeship-based training with no objective progression criteria. This situation has e.g. lead some centers to abandon the technique mid-learning during a prospective multicentric study [1]. Studies report that achieving proficiency requires between 50 and 350 cases depending on the criteria used [2, 3]. Although simulators are recommended by academic societies and governing bodies, their predictive validity for complex procedures such as HoLEP has not yet been demonstrated. The central surgical step — identifying and following the adenoma/capsule dissection plane — directly determines functional outcomes and complication rates.
At CHU Grenoble Alpes, the PhD project of Clément Sarrazin (1A Edisce), a urologist at CHUGA, formalizes the procedure as a surgical process model (SPM) and is building an expert-annotated video corpus by phases and steps. These annotations capture the macroscopic structure of the procedure but not continuous visual information such as endoscope orientation, exposure quality, or dissection planes. The visual conditions specific to HoLEP — laser-induced saturation artifacts, smoke, continuous irrigation, and low tissue texture of the prostatic capsule — differ fundamentally from those of other endoscopic procedures for which automatic analysis methods exist (e.g. laparoscopic cholecystectomy [4]), making direct transfer of pretrained models problematic [5].
This PhD builds on previous work by the GMCAO team at the TIMC laboratory in surgical exposure quality prediction, multimodal dataset construction, formative feedback, and operative deviation detection [6–11], extending it to HoLEP in a weakly supervised framework. Three main objectives structure the work: (i) robust recognition of surgical phases and steps; (ii) learning interpretable visual representations of the operative state without dense spatial annotation; (iii) identification of atypical segments by modeling the expert distribution and analyzing intra-phase temporal variability, confronted with the clinical expert partner's analysis to assess clinical relevance.
Collaboration between the scientific and clinical PhD candidates ensures clinical relevance throughout, particularly for validating atypical segments. This work contributes to surgical data science [5] and targets methodological advances applicable beyond HoLEP, addressing clinicians' needs for objective standardization of surgical skill.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/2026
Au CHU Grenoble Alpes, la thèse de Clément Sarrazin (1A Edisce), urologue au CHUGA, formalise la procédure sous forme de modèle de processus chirurgical (SPM) et constitue un corpus de vidéos annotées en phases et étapes. Ces annotations capturent la structure macroscopique, mais pas les informations visuelles comme l'orientation de l'endoscope, la qualité d'exposition ou les plans opératoires. Les conditions visuelles propres au HoLEP — artefacts de saturation dus au laser, fumée, irrigation continue, faible texture tissulaire de la capsule prostatique — diffèrent fondamentalement de celles d'autres interventions endoscopiques pour lesquelles des méthodes d'analyse automatique existent (e.g. cholécystectomie laparoscopique [4]), rendant le transfert direct de modèles pré-entraînés problématique [5].
Cette thèse s'appuie sur les travaux de l'équipe GMCAO du laboratoire TIMC en prédiction de la qualité d'exposition chirurgicale, constitution de datasets multimodaux, feedback formatif et détection de déviations opératoires [6-11], et les étend à HoLEP dans un cadre faiblement supervisé. Trois objectifs structurent le travail : (i) reconnaissance robuste des phases et étapes chirurgicales ; (ii) apprentissage de représentations visuelles de l'état opératoire sans annotation spatiale dense ; (iii) identification de segments atypiques par modélisation de la distribution experte et analyse de la variabilité temporelle, confrontée à l'analyse de l'expert clinicien partenaire.
La collaboration entre le doctorant scientifique et le doctorant clinicien assurera la pertinence clinique tout au long du projet, notamment lors de la validation des segments atypiques. Ce travail s'inscrit dans la surgical data science [5] et vise des contributions méthodologiques applicables au-delà du HoLEP, en réponse aux besoins des cliniciens pour standardiser la qualité des gestes médico-chirurgicaux.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Benign prostatic hyperplasia (BPH) affects up to 50% of men over 60 and is a common cause of obstructive urinary symptoms. Recommended by the European Association of Urology as the reference treatment of BPH, Holmium laser enucleation of the prostate (HoLEP) is a technically demanding minimally invasive procedure whose mastery relies on apprenticeship-based training with no objective progression criteria. This situation has e.g. lead some centers to abandon the technique mid-learning during a prospective multicentric study [1]. Studies report that achieving proficiency requires between 50 and 350 cases depending on the criteria used [2, 3]. Although simulators are recommended by academic societies and governing bodies, their predictive validity for complex procedures such as HoLEP has not yet been demonstrated. The central surgical step — identifying and following the adenoma/capsule dissection plane — directly determines functional outcomes and complication rates.
At CHU Grenoble Alpes, the PhD project of Clément Sarrazin (1A Edisce), a urologist at CHUGA, formalizes the procedure as a surgical process model (SPM) and is building an expert-annotated video corpus by phases and steps. These annotations capture the macroscopic structure of the procedure but not continuous visual information such as endoscope orientation, exposure quality, or dissection planes. The visual conditions specific to HoLEP — laser-induced saturation artifacts, smoke, continuous irrigation, and low tissue texture of the prostatic capsule — differ fundamentally from those of other endoscopic procedures for which automatic analysis methods exist (e.g. laparoscopic cholecystectomy [4]), making direct transfer of pretrained models problematic [5].
This PhD builds on previous work by the GMCAO team at the TIMC laboratory in surgical exposure quality prediction, multimodal dataset construction, formative feedback, and operative deviation detection [6–11], extending it to HoLEP in a weakly supervised framework. Three main objectives structure the work: (i) robust recognition of surgical phases and steps; (ii) learning interpretable visual representations of the operative state without dense spatial annotation; (iii) identification of atypical segments by modeling the expert distribution and analyzing intra-phase temporal variability, confronted with the clinical expert partner's analysis to assess clinical relevance.
Collaboration between the scientific and clinical PhD candidates ensures clinical relevance throughout, particularly for validating atypical segments. This work contributes to surgical data science [5] and targets methodological advances applicable beyond HoLEP, addressing clinicians' needs for objective standardization of surgical skill.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/2026
Nature du financement
Contrat doctoral
Précisions sur le financement
Concours pour un contrat doctoral
Présentation établissement et labo d'accueil
Université Grenoble Alpes
Etablissement délivrant le doctorat
Université Grenoble Alpes
Ecole doctorale
216 ISCE - Ingénierie pour la Santé la Cognition et l'Environnement
Profil du candidat
Master 2 recherche ou diplôme d'ingénieur en informatique, apprentissage automatique ou vision par ordinateur.
Compétences indispensables :
• Maîtrise avancée de Python et PyTorch (entraînement, débogage, GPU distribué).
• Bases solides en apprentissage profond appliqué à la vision par ordinateur ou aux séquences temporelles.
• Capacité à lire et réimplémenter des articles de recherche récents de manière autonome.
• Environnement Linux, Git
• Intérêt marqué pour les applications médicales et goût pour le travail interdisciplinaire avec des cliniciens.
• Rigueur, autonomie et appréciation du travail en équipe
Compétences appréciées :
• Expérience pratique / projets déjà réalisés en deep learning avec des modèles de vision ou de séquences
M.Sc. or engineering degree in computer science, computer vision, or machine learning. Required skills: • Advanced proficiency in Python and PyTorch (training, debugging, distributed GPU). • Solid foundations in deep learning applied to computer vision or temporal sequence modeling. • Ability to read and independently re-implement recent research papers. • Comfortable with Linux and Git environments. • Strong interest in medical applications and willingness to work in an interdisciplinary team with clinicians. • Rigor, autonomy, and team-working skills. Valued skills: • Hands-on experience/projects with deep learning sequence or vision models
M.Sc. or engineering degree in computer science, computer vision, or machine learning. Required skills: • Advanced proficiency in Python and PyTorch (training, debugging, distributed GPU). • Solid foundations in deep learning applied to computer vision or temporal sequence modeling. • Ability to read and independently re-implement recent research papers. • Comfortable with Linux and Git environments. • Strong interest in medical applications and willingness to work in an interdisciplinary team with clinicians. • Rigor, autonomy, and team-working skills. Valued skills: • Hands-on experience/projects with deep learning sequence or vision models
19/05/2026
Postuler
Fermer
Vous avez déjà un compte ?
Nouvel utilisateur ?
Vous souhaitez recevoir nos infolettres ?
Découvrez nos adhérents
Laboratoire National de Métrologie et d'Essais - LNE
SUEZ
Généthon
ADEME
Medicen Paris Region
Aérocentre, Pôle d'excellence régional
Servier
ONERA - The French Aerospace Lab
Tecknowmetrix
Nokia Bell Labs France
Groupe AFNOR - Association française de normalisation
ASNR - Autorité de sûreté nucléaire et de radioprotection - Siège
Ifremer
ANRT
TotalEnergies
Institut Sup'biotech de Paris
Nantes Université
