Auteurs
Résumé
Le calcul de distances entre représentations textuelles est au coeur de nombreuses ap- plications du Traitement Automatique des Langues. Les approches standard initiallement déve- loppées pour la recherche d’information sont alors le plus souvent utilisées. Dans la plupart des cas, il est donc adopté une description sac-de-mots (ou sac-d’attributs) avec des pondérations de type TF-IDF ou des variantes, une représentation vectorielle et des fonctions classiques de similarité comme le cosinus. Dans ce papier, nous nous intéressons à l’une de ces tâches, à savoir le clustering sémantique d’entités extraites d’un corpus. Nous défendons l’idée que pour ce type de tâches, il est possible d’utiliser des représentations et des mesures de similarités plus adaptées que celles usuellement employées. Plus précisément, nous explorons l’utilisation de représentations alternatives des entités appelées sacs-de-vecteurs ou sacs-de-sacs-de-mots. Dans ce modèle, chaque entité est définie non pas par un unique vecteur, mais par un ensemble de vecteurs, chacun de ces vecteurs étant construit à partir d’une occurrence de l’entité. Pour utiliser cette représentation, nous utilisons et définissons des extensions des mesures classiques du modèle vectoriel (cosinus, Jaccard, produit scalaire…). Ces différents constituants sont tes- tés sur notre tâche de clustering, et nous montrons que cette représentation en sac-de-vecteurs améliore significativement les résultats par rapport à une approche standard en sac-de-mots.
Abstract
Computing distances between textual representation is at the heart of many Natural