Apprentissage actif de préférences sur base de modèles dans le cadre des systèmes de recommandations.
-
TypeDoctorat
-
Mots-cléssystèmes de recommandation, apprentissage actif, élicitation de préférences
Description
L’objectif de ce travail est de contribuer à une approche plus mathématique des systèmes de recommandation au travers de l’étude de méthodes d’apprentissage actif. Ces dernières ont pour principe général de demander directement de l’information à l’utilisateur, afin de lui recommander les meilleures solutions possibles [1].
Ce travail reposera sur des modèles de préférences de l’utilisateur et de l’erreur que peut commettre celui-ci en répondant aux questions, ainsi que sur divers principes comme l’élicitation bayésienne [2] ou l’optimisation du critère de regret minimax [3], en collaboration avec Paolo Viappiani (LIP6, Paris).
Cette étude poursuit un double objectif : d’une part, élaborer une stratégie de questionnement qui maximise, à chaque question, le gain d’information sur les paramètres des modèles; d’autre part, étant donné l’information recueillie à l’issue du questionnement, optimiser la recommandation.
D’autres applications possibles concernent par exemple les décisions stratégiques des grandes entreprises, où il est important que la recommandation soit étayée par un modèle explicite.
. [1] B. Settles. “Active learning”. In: Synthesis Lectures on Artificial Intelligence and Machine Learn- ing 6.1 (2012), pp. 1–114. . [2] P. Viappiani and C. Boutilier. “Optimal Bayesian recommendation sets and myopically optimal choice query sets”. In: Advances in Neural Information Processing Systems. 2010, pp. 2352–2360. . [3] P. Viappiani and C. Boutilier. “Regret-based optimal recommendation sets in conversational rec- ommender systems”. In: Proceedings of the third ACM conference on Recommender systems. ACM. 2009, pp. 101–108.