Where PhDs and companies meet
Menu
Login

Already registered?

New user?

Analyse et évaluation automatique du geste de chirurgie dentaire en environnement virtuel de formation

ABG-105839 Thesis topic
2022-05-23 Public funding alone (i.e. government, region, European, international organization research grant)
Logo de
Laboratoire d'Informatique de l'Université du Mans
Laval - Pays de la Loire - France
Analyse et évaluation automatique du geste de chirurgie dentaire en environnement virtuel de formation
  • Computer science
EVAH (Environnement Virtuel pour l’Apprentissage Humain), mouvement capturé, geste technique, machine learning

Topic description

Résumé : Le sujet de thèse porte sur la conception et la mise en place de modèles et d’outils pour l’évaluation automatique du geste de chirurgie dentaire en fonction des besoins d’observation et d’analyse des praticiens. Ces gestes sont analysés à partir des mouvements capturés des enseignants et des apprenants, et restitués en 3D au sein du simulateur virtuel Virteasy développé par l’entreprise HRV. Le sujet de thèse s’inscrit dans le cadre du projet ANR EVAGO portant sur l’instrumentation des simulateurs virtuels pour l’assistance à l’apprentissage et la formation en Odontologie. Elle a lieu dans le contexte d’une collaboration entre le laboratoire LIUM (porteur), l’entreprise HRV, la faculté de chirurgie dentaire de Nantes, le laboratoire RMeS et le Pôle Hospitalier Universitaire PHU4 et le Centre de Recherche en Éducation de Nantes (CREN).

Laboratoire et équipe d’accueil : Laboratoire LIUM (https://lium.univ-lemans.fr/), équipe IEIAH

Financement : Contrat doctoral à Durée Déterminée (CDD) sur 3 ans, financé par le projet ANR EVAGO, 2 650 € euros bruts mensuels (salaire de base + mission d’enseignement).

Lieu et date de commencement : entre le 1er septembre et le 1er octobre 2022 (date à définir avec le candidat) à Laval (53), France.

Date limite de candidature : jusqu’au 30 juin 2022, auditions au fil de l’eau

Présentation détaillée : La démocratisation des outils de capture de mouvements ont permis de développer de nouveaux Environnements Virtuels (EV) multimodaux, dans lesquels l’utilisateur peut agir en temps réel à l’aide d’interactions naturelles [Penichet et al. 2013][Emma-Ogbangwo et al. 2014]. Ces interactions sont rendues possibles notamment par l’exploitation des séries temporelles constituées des positions et des orientations de chaque articulation, générées par les outils de capture. Au-delà de ces interactions, ces données peuvent aussi être enregistrées et exploitées pour reproduire les gestes au travers d’un avatar 3D et analyser les caractéristiques des mouvements sous-jacents [Couland et al. 2020]. Il est ainsi possible de créer des Environnements Virtuels (EV) pour l’Apprentissage Humain (EVAH) dédiés spécifiquement à l’apprentissage de gestes techniques et professionnels (e.g. apprendre un geste de soudure, de secourisme, de peinture, etc.) [Le Naour et al. 2019]. Dans ces EVAH, le geste est soit considéré comme une succession de postures à imiter, soit comme un ensemble de mouvements devant respecter des propriétés cinématiques prédéfinies (e.g. vitesse, accélération, etc.), dynamiques (e.g. force, etc.) ou géométriques (e.g. amplitude, spatialisation, etc.), soit comme une séquence ordonnée d’actions à reproduire [Larboulette and Gibet, 2015][Djadja et al., 2020].

Dans le contexte de la chirurgie dentaire, Virteasy, développé par l’entreprise Haptique et Réalité Virtuelle (HRV), est un simulateur virtuel à retour d’effort permettant d’assister les acteurs (i.e. apprenants et enseignants) dans l’apprentissage des gestes d’odontologie. Renforcer le simulateur avec de nouvelles fonctionnalités de rejeu, de comparaison et d’évaluation automatique des gestes produits représente un enjeu pédagogique, didactique et concurrentiel crucial, afin : (a) que les étudiants gagnent en autonomie et en capacité d’auto-évaluation et (b) que les enseignants puissent corriger au plus tôt les mauvaises postures et adaptent en conséquence leur pédagogie. Cette thèse a pour ambition de construire de nouveaux modèles et outils pour l’évaluation automatique du geste de chirurgie dentaire. Dans ce contexte, les verrous à lever porteront sur :

  • 1. la modélisation des séquences pédagogiques basées "geste" : des modèles d’analyse spatiale et temporelle doivent permettre de décomposer automatiquement les gestes produits en actions élémentaires composant le scénario pédagogique de l’enseignant.
  • 2. l’évaluation automatique des mouvements : une architecture devra être proposée afin d’évaluer les gestes de l'apprenant par comparaison avec ceux des enseignants, en s’appuyant sur des outils de machine learning robustes à partir de peu de démonstrations des gestes.
  • 3. la restitution de l’évaluation en environnement virtuel : des indicateurs visuels devront permettre de représenter en EV chaque caractéristique du geste défini par les besoins d’observation et d’analyse, et évaluée par le système.
  • 4. l’adaptation et la généricité de l’évaluation et des indicateurs au contexte : l’architecture et les indicateurs devront être adaptables, i.e. les coûts de réingénierie devront être minimisés en cas d’évolution des observations, des pratiques ou de la situation d’apprentissage.

Bibliographie
- [Couland et al. 2020] Couland, Q., Hamon, L., George, S., Technology Enhanced Learning of Motions Based on Clustering (2020) Technology Supported Innovations in School Education, Springer International Publishing.
- [Djadja et al., 2020] Djadja, D. J. D., Hamon, L. and George, S. (2020). Design of a Motion-Based Evaluation Process in any Unity 3D Simulation for Human Learning, VISIGRAPP. Valletta, Malta.
- [Emma-Ogbangwo et al. 2014] Emma-Ogbangwo, C., Cope, N., Behringer, R. and Fabri, M. (2014). Enhancing User Immersion and Virtual Presence in Interactive Multiuser Virtual Environments through the Development and Integration of a Gesture-Centric Natural User Interface Developed from Existing Virtual Reality Technologies. HCI International.
- [Larboulette and Gibet, 2015] Larboulette, C., and Gibet, S. (2015). A Review of Computable Expressive Descriptors of Human Motion. In 2nd International Workshop on Movement and Computing.
- [Le Naour et al. 2019] Le Naour, T., Hamon, L., and Bresciani, J. P., (2019). Superimposing 3D Virtual Self + Expert Modeling for Motor Learning: Application to the Throw in American Football. Frontiers in ICT 6.
- [Penichet et al. 2013] Penichet, V. M. R., Peñalver, A. and Gallud, J. A.., (2013). New Trends in Interaction, Virtual Reality and Modeling. Human–Computer Interaction Series, Springer-Verlag, Number 1.

Starting date

2022-10-01

Funding category

Public funding alone (i.e. government, region, European, international organization research grant)

Funding further details

Financé

Presentation of host institution and host laboratory

Laboratoire d'Informatique de l'Université du Mans

Le Laboratoire d'Informatique de l'Université du Mans (LIUM - EA 4023), créé il y a environ vingt-cinq ans, regroupe la plupart des enseignants-chercheurs en informatique de l’Université du Maine. Il est dirigé par Yannick Estève et comprend actuellement 26 enseignants-chercheurs et 20 doctorants et chercheurs non permanents. Le LIUM est composé de deux équipes :
- une équipe de treize enseignants-chercheurs permanents spécialisés en Environnements informatiques pour l'apprentissage humain (Ingénierie des EIAH), dirigée par Sébastien George ;
- une équipe de treize enseignants-chercheurs permanents spécialisés en reconnaissance de la parole et traduction automatique (Language and Speech Technology — LST), dirigée par Paul Deléglise.
 

PhD title

Doctorat en informatique

Country where you obtained your PhD

France

Institution awarding doctoral degree

Université Du Mans

Candidate's profile

Profil recherché

Profil : Master 2 ou école d’ingénieur en Informatique avec des compétences en

  • réalité virtuelle/augmentée/mixte ou computer graphics ou en biomécanique
  • apprentissage automatique (machine learning)

Compétences techniques : Unreal Engine ou Unity, C++ ou C#, python (scikit learn),

2022-07-01
Partager via
Apply
Close

Vous avez déjà un compte ?

Nouvel utilisateur ?