Auteurs
Résumé
Dans cet article, nous étudions (i) comment extraire et exploiter des concepts visuels pour améliorer la recherche d’images basée sur le texte, et (ii) comment diversifier les résul- tats pertinents obtenus. Nous utilisons d’abord des forêts d’arbre de décisions flous (FFDTs) pour détecter les concepts dans les images, puis nous découvrons à l’aide de l’analyse des cooccurrences des relations d’exclusion mutuelle et d’implication entre les concepts. Ensuite, nous utilisons ces concepts pour améliorer la pertinence des résultats obtenus par un système de recherche d’images par le texte. Enfin, nous appliquons une méthode de diversité visuelle basée sur le partitionnement de l’espace visuel. Ce travail se place dans le cadre de la cam- pagne d’évaluation CLEF. Il montre une nette amélioration des résultats lorsque l’on utilise les concepts apparaissant explicitement dans la requête textuelle, ainsi que l’efficacité du clustering spatial.
Abstract
In this article, we study (i) how to automatically extract and exploit visual concepts and (ii) fast visual diversity. First, in the Visual Concept Detection Task (VCDT), we look at the mutual exclusion and implication relations between VCDT concepts in order to improve the automatic image annotation by Forest of Fuzzy Decision Trees (FFDTs). Second, in the ImageCLEFphoto task, we use the FFDTs learnt in VCDT task and WordNet to improve image retrieval. Third, we apply a fast visual diversity method based on space clustering to improve the cluster recall score. This study shows that there is a clear improvement, in terms of precision or cluster recall at 20, when using the visual concepts explicitly appearing in the query and that space clustering can be efficiently used to improve cluster recall.