Auteurs
Résumé
Apprendre les fonctions d’ordonnancement pour les moteurs de recherche est une tâche difficile parce que les critères d’évaluations généralement utilisés sont difficilement opti- misables directement. Dans ce cas, nous sommes contraints d’optimiser une fonction d’erreur d’ordonnancement qui en est proche. Dans ce papier, nous proposons de définir une fonction d’erreur d’ordonnancement en utilisant un opérateur d’agrégation convexe des erreurs de clas- sification sur les paires appelé OWA (Yager, 1988) qui suivant son paramétrage peut donner un poids plus important aux erreurs commises au début de la liste. En utilisant des coûts de classification de type hinge loss, notre problème est similaire à une SVM à sorties structurées. Les expériences menées nous permettent de valider notre approche.
Abstract
Learning a ranking function for Information Retrieval is a difficult task because evaluation criteria are not directly optimisable. We propose to optimize a convex loss functions for ranking, based on a convex aggregation operators of the classification losses (OWA (Yager, 1988)) where depending on their weights can be used to focus on the top ranked elements as