Reciblage des Expressions sur des Avatars pour les Interactions Homme-Agent et les Applications de Réalité Etendue
-
TypeDoctorat
Description
L’un des principaux piliers de la révolution industrielle actuelle est la réalité étendue. Ce sujet a suscité beaucoup d’intérêt tant dans le monde universitaire que dans l’industrie (Meta, Apple, Google, Nvidia, etc.), en raison de son impact socioculturel et économique potentiel.
Dans le cadre du projet collaboratif Wal4XR, qui regroupe 5 universités de Wallonie et de Bruxelles autour des XR, cette thèse portera sur l’amélioration du reciblage des expressions audiovisuelles d’un utilisateur sur un avatar 3D. La thèse aura deux objectifs principaux. D’une part, elle se concentrera sur l’amélioration des systèmes de détection d’expressions audiovisuelles dans le contexte des applications XR avec et sans occlusions (présence ou absence d’un Head Mounted Display pour des scénarios tels que les réunions virtuelles). D’autre part, l’objectif est d’explorer des techniques de reciblage robustes et généralisables pour faire correspondre différents utilisateurs à différents avatars de la manière la plus transparente possible.
L’objectif est ici de représenter l’utilisateur qui contrôle l’avatar de la manière la plus précise possible et d’exprimer son intention de communication de la manière la plus précise possible. La manière la plus intuitive d’y parvenir serait de détecter automatiquement les expressions de l’utilisateur et de les recibler sur l’avatar. Cela pose divers problèmes en fonction du support : occlusions dues aux dispositifs montés sur la tête, limitations des technologies de reciblage de l’humain à l’avatar, etc. Il existe des travaux intéressants et prometteurs dans la littérature qui s’attaquent à ces problèmes [1,2]. Mais il y a encore beaucoup de place pour l’amélioration en raison de problèmes tels que les limites des systèmes de détection d’expressions, l’accumulation d’erreurs dans le processus de reciblage, le manque de flexibilité des méthodes de reciblage et la nécessité de prendre en compte la multimodalité dans ces systèmes (ils sont actuellement principalement axés sur les expressions faciales).
[1] Purps, C.F., Janzer, S., Wölfel, M. (2022). Reconstructing Facial Expressions of HMD Users for Avatars in VR. In: Wölfel, M., Bernhardt, J., Thiel, S. (eds) ArtsIT, Interactivity and Game Creation. ArtsIT 2021. Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, vol 422. Springer, Cham. https://doi.org/10.1007/978-3-030-95531-1_5
[2] J. Zhang, K. Chen and J. Zheng, “Facial Expression Retargeting From Human to Avatar Made Easy,” in IEEE Transactions on Visualization and Computer Graphics, vol. 28, no. 2, pp. 1274-1287, 1 Feb. 2022, doi: 10.1109/TVCG.2020.3013876.
Mission
- Carry on research towards the above mentioned objectives
- Generate resources displaying your research work and make it available to the community for reproducibility purposes
- Participate in various meetings and events in the context of the Wal4XR project
Profil
You hold a Master in Computer Science, Electrical Engineering or equivalent, ideally focusing on one of the domains of interest here.
Compétences Requises
- à l’aise dans le travail autonome et en équipe
- Capable de s’adapter et d’acquérir rapidement de nouvelles compétences
- Bonne communication orale et écrite
- Expérience ou expertise dans plus d’un des domaines suivants et intérêt pour l’apprentissage des autres : apprentissage automatique (apprentissage profond en particulier), statistiques, modélisation 3D.
- Bonnes compétences en programmation en Python
Compétences Idéales
- Bonnes compétences en programmation en C# et C++
- Expérience confirmée dans la recherche, le génie logiciel, le développement de logiciels, l’apprentissage automatique, la modélisation 3D ou les domaines liés à la radiologie en général.
Intéressé ?
Envoyer un courriel avec CV et lettre de motivation au Prof. T. Dutoit (thierry.dutoit @ umons.ac.be)