Où docteurs et entreprises se rencontrent
Menu
Connexion

Apprentissage profond pour l’étude de la perception de soi suite à l’application de maquillages en fonction de critères d’âge et d’ethnie.

ABG-132739 Sujet de Thèse
01/07/2025 Financement public/privé
CENTRALESUPELEC
Rennes - Bretagne - France
Apprentissage profond pour l’étude de la perception de soi suite à l’application de maquillages en fonction de critères d’âge et d’ethnie.
  • Informatique
  • Psychologie, neurosciences
Intelligence Artificielle (IA), Apprentissage profond, Affective computing

Description du sujet

Informations Générales 

Position: PhD Student. Poste entièrement financé par l’industriel. 

Duration: 3 ans. 

Location: CentraleSupélec campus de Rennes (France). 

Affiliation: Clarins et Equipe AIMAC, du laboratoire IETR (UMR CNRS 6164). 

Supervisor: Catherine SOLADIE, Julie ROBIC, Dorothée GODET 

 

Contexte 

 

Le maquillage a souvent été vu comme uniquement une quête de la beauté. Mais depuis peu, maquillage va de pair avec la recherche de bénéfices émotionnels [1]. C’est ce que montrent une récente étude, réalisé auprès d’un public de femmes de cultures différentes (France, Angleterre, Chine). Les attentes diffèrent selon les cultures, mais parmi les bénéfices émotionnels, nous pouvons notamment citer la recherche de la confiance en soi, choisie à 72% pour le panel anglais, arrivant ainsi en première position des bénéfices attendus. 

 

Au regard de cette évolution des attentes, alors que de nombreuses études scientifiques ont montrées l’impact du maquillage sur l’attractivité par des évaluations et des mesures implicites [2,3], aucune recherche scientifique rigoureuse n’a abordé à ce jour l’impact du maquillage sur la perception des émotions. 

 

Description et objectifs 

 

L’objet de cette thèse est de mesurer, de façon objective, l’impact de certains produits et de certaines routines de maquillage sur les bénéfices émotionnels tels que la confiance en soi. 

 

Cette thèse se fait en partenariat avec l’équipe AIMAC (Artificial Intelligence for Multimodal Affective Computing) de CentraleSupelec, spécialisée dans l’analyse des comportements humains, notamment émotionnels, à partir d’outil d’apprentissage profond. Deux axes principaux caractérisent les travaux de recherche de l’équipe : l’analyse multimodale d’émotions à partir de video (visage et voix) ; et la création de représentation mentales de visages émotionnels à partir de reverse corrélation numérique intelligente. 

 

L’apport de technologies drivées par des outils d’apprentissage profond et d’intelligence artificielle va permettre de mesurer rigoureusement et objectivement l’amélioration de la confiance en soi lors de l’application de certains produits ou de certaines routines. Les études pourront se faire en fonction de plusieurs critères incluant l’âge, la culture, l’ange de perception (perception de soi, perception de l’autre), l’étape de la routine de maquillage, ou encore les produits utilisés. 

 

Pour atteindre ces objectifs, le doctorant devra concevoir des systèmes de computer vision et de computer graphics en s’appuyant des modèles d’IA récents (VAE [4a,4b] ou Dynamic VAE [4c], modèle d’attention [4d],…). Ces outils permettront de réaliser plusieurs acquisitions et tests au sein d’un panel de sujets d’âge et de culture différente. Il s’agira plus précisément de déterminer la représentation mentale associée à la confiance en soi, en faisant varier les types de maquillage. Pour cela, il s’agira de : 

Créer un outil de génération synthétique de maquillages spécifiques à partir d’une photo [5a, 5b, 5c] 

Créer un outil de création d’image mentale [6a, 6b, 6c] 

Etudier des images mentales en fonction de certains critères (perception de soi, perception de l’autre, âge, culture) [7a] 

Les différentes études des images mentales se feront de façon incrémentale, en commençant par la comparaison de la perception de soi, de la perception par les autres et de la perception par les proches, pour différentes classes d’âge sur un panel caucasien. 

 

Sur le premier point, afin d’avoir un modèle efficace, de nombreuses données sont nécessaires. Il s’agira donc d’étudier comment utiliser des BDD publiques massives et des données standardisées plus restreintes pour générer des images standardisées de Clarins. Le doctorant aura aussi à participer à l’acquisition terrain de ces données standardisées. 

 

Sur le second point, afin de réduire le temps d’acquisition des images mentales, l’objet de l’étude consistera à travailler sur l’optimisation de l’outil de création d’images mentales (algo génétiques, recuit simulé, réseaux de neurones, etc...).  

 

Sur le point 3, il s’agira de mener l’étude de bout en bout avec la spécification des protocoles expérimentaux, les expérimentations à proprement parler et l’analyse scientifique des résultats.  

 

 

La publication dans des conférences et journaux de haut rangs est visée (tels que PAMI, TAC, 

CVIU, PRL pour les journaux ou CVPR, ICCV, ECCV, FG, pour les conférences). Des publications 

dans le domaine de la cosmétique seront 

aussi envisagées. 



 

References 

[1] Fischer, A., et al. (2023). "Makeup and emotional perception: A review of the literature." Psychology of Aesthetics, Creativity, and the Arts, 17(2), 123-135. 

 

[2] Cash, K. A., et al. (2007). "The role of makeup in the perception of attractiveness: A cross-cultural study." 

[3] Baker, S., & Smith, J. (2021). "The impact of cosmetics on perceived attractiveness: A meta-analysis." Journal of Social Psychology, 161(4), 345-360. 

 

[4a] Kingma, D. P., & Welling, M. (2014). Auto-encoding variational Bayes. International Conference on Learning Representation (ICLR). https://doi.org/10.48550/arXiv.1312.6114 

 

[4b] Rezende, D. J., Mohamed, S., & Wierstra, D. (2014). Stochastic backpropagation and approximate inference in deep generative models. International Conference on Machine Learning (ICML), https://proceedings.mlr.press/v32/rezende14.pdf 

 

[4c] Girin, L., Leglaive, S., Bie, X., Diard, J., Hueber, T., & Alameda-Pineda, X. (2020). Dynamical variational autoencoders: A comprehensive review., Found Trends Mach Learn, 2021, https://doi.org/10.1561/2200000089 

 

[4d] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30. 

 

[5a] Liu, M., Wei, Y., Wu, X., Zuo, W., & Zhang, L. (2023). Survey on leveraging pre-trained generative adversarial networks for image editing and restoration. Science China Information Sciences, 66(5), 151101. 

 

[5b] Karras, T., Laine, S., Aittala, M., Hellsten, J., Lehtinen, J., & Aila, T. (2020). Analyzing and improving the image quality of stylegan. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 8110-8119). 

 

[5c] Zhu, J., Shen, Y., Xu, Y., Zhao, D., & Chen, Q. (2022). Region-based semantic factorization in GANs. arXiv preprint arXiv:2202.09649. 

 

[6a] Murray RF. Classification images: A review. Journal of vision. 2011;11(5):2–2. pmid:21536726 

 

[6b] Brinkman L, Todorov A, Dotsch R. Visualising mental representations: A primer on noise-based reverse correlation in social psychology. European Review of Social Psychology. 2017;28(1):333–361. 

 

[6c] Yan, S., Soladie, C., & Seguier, R. (2023, January). Exploring mental prototypes by an efficient interdisciplinary approach: Interactive microbial genetic algorithm. In 2023 IEEE 17th International Conference on Automatic Face and Gesture Recognition (FG) (pp. 1-8). IEEE 

 

[7a] Yan, S., Soladié, C., Aucouturier, J. J., & Seguier, R. (2023). Combining GAN with reverse correlation to construct personalized facial expressions. Plos one, 18(8), e0290612. 

 

 

 

 

 

 

 

 

Prise de fonction :

01/10/2025

Nature du financement

Financement public/privé

Précisions sur le financement

Présentation établissement et labo d'accueil

CENTRALESUPELEC

Cette thèse se fait en partenariat avec l’équipe AIMAC (Artificial Intelligence for Multimodal Affective Computing) de CentraleSupelec, spécialisée dans l’analyse des comportements humains, notamment émotionnels, à partir d’outil d’apprentissage profond. Deux axes principaux caractérisent les travaux de recherche de l’équipe : l’analyse multimodale d’émotions à partir de video (visage et voix) ; et la création de représentation mentales de visages émotionnels à partir de reverse corrélation numérique intelligente. 

 

Environnement de travail 

Le doctorant sera encadré par Catherine SOLADIE pour CentraleSupelec, Julie ROBIC et Dorothée GODET côté Clarins, et rejoindra l'équipe AIMAC du laboratoire IETR, situé sur le campus de CentraleSupélec à Rennes (Bretagne, France). 

 

Un hébergement peut vous être proposé sur le campus de l’école CentraleSupelec. 

 

Le doctorant bénéficiera de l'environnement de recherche de CentraleSupélec, notamment des ressources informatiques computationnelles du Mésocentre (cluster de calcul). 

 

Etablissement délivrant le doctorat

CentraleSupelec

Profil du candidat

 

 

Le candidat doit avoir de bonnes connaissances et compétences pratiques en apprentissage automatique et en traitement d’images. Une très bonne pratique de Python est requise, une expérience avec PyTorch est souhaitée. Le candidat doit également avoir de bonnes compétences en communication orale et écrite en anglais. 

 


 

16/07/2025
Partager via
Postuler
Fermer

Vous avez déjà un compte ?

Nouvel utilisateur ?