Auteurs
Résumé
La recherche d’information dans des corpus de documents structurés doit faire face à de nombreuses problématiques. L’une d’elles concerne l’évaluation de la pertinence des élé- ments : le but est de renvoyer à l’utilisateur une liste triée de résultats. Cette évaluation repose sur la pondération des termes d’indexation utilisée ainsi que sur le modèle suivi pour la mise en correspondance de la requête et des éléments. Dans cet article, nous nous proposons d’explorer diverses pistes pour répondre à ce problème, parmi lesquelles on peut citer l’introduction du contexte des éléments à divers niveaux de granularité. Nos expérimentations utilisent le système XFIRM sur la campagne d’évaluation INEX 2005, et permettent de montrer l’importance de la spécificité des éléments pour les mesures de pertinence utilisées. La pertinence contextuelle semble quant à elle n’avoir que peu d’impact sur la pertinence des éléments, ce qui contre- dit de précédents résultats. Ceci met en lumière les contradictions obtenues par les différentes mesures de pertinence utilisées dans le cadre de la campagne d’évaluation INEX.
Abstract
Structured Information Retrieval copes with a number of open issues. One can cite the evaluation of elements relevance: the aim is to return to the user a ranked list of results. This evaluation is based on the term weighting scheme and on the model used for the matching of queries and elements. In this paper, we propose to explore some clues to answer to this problem. For example, we propose to introduce the element context at different granularity levels. Our experiments use the XFIRM system on the INEX 2005 test suite. Results show the importance of elements specificity for the considered metrics. Contextual relevance seems however to have no impact on elements relevance, which contradicts prior results. It highlights contradictions on the relevance metrics used in the INEX evaluation campaign.