ARIA

Association Francophone de Recherche d’Information (RI) et Applications

Actes de CORIA 2019
PDF

Auteurs

Thiziri Belkacem, Taofiq Dkaki, Jose G. Moreno, Mohand Boughanem

Résumé

Dans les modèles neuronaux d’appariement de textes, les entrées subissent les mêmes transformations pour construire les représentations correspondantes. La nature de la tâche d’appariement est défini à partir du type des entrées du modèle et de la relation entre elles. Nous distinguons deux types d’appariement : (1) l’appariement symétrique fait référence aux tâches d’appariement à des entrées de même nature, telles que l’identification des paraphrases et la classification de documents. (2) l’appariement asymétrique concerne des tâches à des entrées de natures différentes, telle que l’appariement document-requête ou question-réponse. Généralement, les représentations des entrées sont construites indépendamment de leurs nature à partir des vecteurs de leurs mots. Nous proposons une approche permettant de prendre en compte la nature de la tâche, (1) ou (2), et de mieux traiter les entrées. Nous utilisons un modèle d’attention pour étendre des modèles de l’état de l’art. Les résultats expérimentaux montrent que l’adaptation de l’architecture du modèle au type de la tâche permet d’améliorer les performances de plusieurs modèles neuronaux bien connus.

Abstract

In neural text matching models, the inputs undergo the same transformations to con- struct the corresponding representations. The nature of the task is defined w.r.t the relationship between the inputs and their types. We distinguish two types of matching: (1) Symmetric match- ing refers to matching tasks with similar inputs nature, such as paraphrase identification and document classification. (2) asymmetric matching refers to tasks with inputs of different nature, such as document-query or question-answer matching. Generally, the input representations are constructed, independently of their nature, from the vectors of their words. We propose an ap- proach to take into account the type of the task, (1) or (2), and to better process the inputs. We use an attention model to extend state of the art models. Experimental results show that adapting the model architecture to the task type improves the performances of several neural models.

Posts Récents

Catégories

A Propos

ARIA (Association Francophone de Recherche d’Information (RI) et Applications) est une société savante, association loi 1901, ayant pour but de promouvoir le savoir et les connaissances du domaine de la Recherche d’Information (RI) et des divers domaines scientifiques en jeu dans la conception, la réalisation et l’évaluation des systèmes de Recherche d’Information.