<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Association Francophone de Recherche d&#39;Information et Applications</title>
    <link>http://www.asso-aria.org/coria/2004/papers/</link>
    <description>Recent content on Association Francophone de Recherche d&#39;Information et Applications</description>
    <generator>Hugo</generator>
    <language>fr</language>
    <atom:link href="http://www.asso-aria.org/coria/2004/papers/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Apprentissage par renforcement dans un système de filtrage adaptatif.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.27/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.27/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Cet article présente une méthode incrémentale d&amp;rsquo;apprentissage des profils dans les systèmes de filtrage d&amp;rsquo;information. Cette méthode est basée sur le principe de renforcement. L&amp;rsquo;idée de base consiste à construire, à chaque arrivée d&amp;rsquo;un document pertinent, un profil &amp;rsquo; provisoire &amp;rsquo; permettant de sélectionner le document en question avec un score &amp;rsquo; fort &amp;lsquo;, puis intégrer ce profil, grâce à une descente de gradient, dans le profil global. Cette méthode est comparée à une version incrémentale de l&amp;rsquo;algorithme de Rocchio adapté au filtrage d&amp;rsquo;information. Des expérimentations effectuées sur la collection de test de référence TREC, montrent que les résultats obtenus par la&lt;/p&gt;</description>
    </item>
    <item>
      <title>Regroupements non-disjoints de mots pour la classification de documents.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.41/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.41/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;La classification automatique de documents est un domaine d&amp;rsquo;étude en plein essor dans le domaine du Traitement et de la Recherche d&amp;rsquo;Information (RI). Dans un cadre supervisé, il s&amp;rsquo;agit alors d&amp;rsquo;entraîner un modèle de classifieur sur un corpus de documents étiquetés. La difficulté majeure consiste à représenter les documents par un nombre limité et suffisant d&amp;rsquo;attributs. Dans cet article, nous proposons une méthode de regroupement de mots, basée sur l&amp;rsquo;algorithme PoBOC (Pole-Based Overlapping Clustering) autorisant les recouvrements entre les groupes. Ainsi, chaque mot initial peut appartenir à un ou plusieurs attributs terminaux. Les expérimentations menées sur le corpus Reuters-21578 ont permis de montrer que cette méthode de regroupements non-disjoints induit, sous de bonnes conditions, une amélioration de la précision du classifieur.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Apprentissage de Relations entre Concepts - Génération Automatique d&#39;une Structuration Hiérarchique à partir de Corpus.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.57/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.57/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Nous étudions comment apprendre automatiquement à partir de corpus, des hiérarchies de concepts obéissant à une relation du type généralisation / spécialisation. Nous proposons une méthode qui permet à partir de concepts identifiés automatiquement sur un corpus de documents, d&amp;rsquo;apprendre des relations généralisation / spécialisation à partir de cooccurrence de ces concepts, puis de construire une hiérarchie ordonnée suivant cette même relation. A titre d&amp;rsquo;application, nous montrons comment utiliser cette hiérarchie de concepts pour construire une hiérarchie de documents. Nous introduisons des critères originaux qui permettent d&amp;rsquo;évaluer la qualité des hiérarchies ainsi construite et de les comparer entre elles ou avec des hiérarchies manuelles. Nous décrivons une série de tests réalisés sur des corpus de documents provenant de portails internet, ces corpus sont extraits des hiérarchies LookSmart et NewScientist.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Corpus-Based vs. Model-Based Selection of Relevant Features.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.75/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.75/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Le travail que nous présentons ici a pour but la comparaison de méthodes de sélection&lt;/p&gt;&#xA;&lt;h1 id=&#34;abstract&#34;&gt;Abstract&lt;/h1&gt;&#xA;&lt;p&gt;In this contribution, we review a number of approaches to feature selection, divided in two broad classes. Some are corpus-based, ie they use only the data to assess the relevance of each feature, and aim at identifying a small subset of relevant features on which to train categorisation models. Others are model-based, ie they assess the relevance of each feature on the basis of the model used for categorisation. This second class of measures allows to better understand the model decisions. Furthermore, comparing the two classes provide insight on whether or not corpus-based feature extraction is selective enough, and does not overgener- ate compared to model-based selection. Our experimental comparison is mainly based on a collection of medical abstracts, provided by the Swiss Institute of Bioinformatics.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Expansion de requêtes par apprentissage automatique dans un assistant pour la recherche d&#39;information.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.89/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.89/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Les outils disponibles de recherche d&amp;rsquo;information sur le Web ont une approche généraliste, ne prenant pas en compte les caractéristiques de l&amp;rsquo;utilisateur, ce qui limite la qualité des résultats qu&amp;rsquo;ils sont susceptibles de fournir. Le système AIRA présenté ici utilise les références documentaires rassemblées par l&amp;rsquo;utilisateur pour construire un profil le représentant, exploité pour interpréter et filtrer les résultats proposés par les moteurs de recherche. Dans cet article nous nous focalisons sur un algorithme d&amp;rsquo;expansion de requêtes à l&amp;rsquo;aide de techniques de l&amp;rsquo;apprentissage machine, et sur les problèmes par l&amp;rsquo;évaluation de cette famille de systèmes.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Interface pour l&#39;évaluation de systèmes de recherche sur des documents XML.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.109/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.109/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;L&amp;rsquo;évaluation des systèmes de Recherche d&amp;rsquo;Information est depuis le début un des piliers de l&amp;rsquo;évolution de ce domaine. La qualité de l&amp;rsquo;évaluation est d&amp;rsquo;une importance capitale puisqu&amp;rsquo;elle permet de discriminer les différents modèles entre eux. Il est donc primordial de pouvoir constituer des corpus où les questions et leurs jugements de pertinence associés sont de qualité. Alors qu&amp;rsquo;avec des documents plats les méthodes sont bien établies, ce n&amp;rsquo;est plus le cas avec des documents structurés de type XML. Il est donc nécessaire de développer de nou- velles façons d&amp;rsquo;évaluer. Nous présentons dans cet article l&amp;rsquo;interface utilisée lors de la campagne INEX 2003 qui permet d&amp;rsquo;évaluer de façon la plus consistante et la plus exhaustive possible les documents XML.&lt;/p&gt;</description>
    </item>
    <item>
      <title>XFIRM: un Modèle Flexible de Recherche d&#39;Information pour le stockage et l&#39;interrogation de documents XML.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.121/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.121/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Les utilisateurs recherchant une information précise ne souhaitent pas la voir noyée aux milieux d&amp;rsquo;autres sujets, comme cela peut être le cas dans de grands documents. Les documents XML, par leur structure même, permettent de traiter l&amp;rsquo;information qu&amp;rsquo;ils contiennent à un niveau de granularité autre que celui du document tout entier. Deux approches s&amp;rsquo;affrontent pour la recherche d&amp;rsquo;information (RI) dans des documents XML. La première est basée sur des méthodes issues de la communauté des bases de données, alors que la seconde étend des techniques utilisées pour RI traditionnelle et permet d&amp;rsquo;associer des valeurs de pertinences aux unités d&amp;rsquo;information retournées. Cet article présente le modèle XFIRM, combinant les avantages des deux approches. Le modèle est basé sur un modèle de représentation et de stockage des données complet et sur un langage de requête simple, permettant à l&amp;rsquo;utilisateur de formuler son besoin à l&amp;rsquo;aide de simples mots-clés ou de manière plus précise, et ce en intégrant des contraintes sur la structure des documents. Grâce à la flexibilité apportée par la structure d&amp;rsquo;index proposée, de nombreux modèles de recherche d&amp;rsquo;information pourront être expérimentés.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Modelling XML retrieval with belief functions.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.143/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.143/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Dans cet article, nous nous intéressons à la recherche de documents XML. Un cadre générique qui permet la représentation de connaissances partielles dans les processus d&amp;rsquo;indexation et de recherche est tout d&amp;rsquo;abord présenté. Ce modèle est basé sur la théorie des fonctions de croyance et permet de décrire plusieurs formes d&amp;rsquo;incertitude sur le contenu et la structure des documents XML. Par ce biais, la méthodologie autorise l&amp;rsquo;utilisation de requêtes qui permettent la spécification de contraintes sur la structure des documents recherchés. Un exemple d&amp;rsquo;une telle stratégie de recherche est proposé de façon à illustrer la méthodologie présentée.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Contexte et sémantique pour une indexation de documents semi-structurés.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.161/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.161/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Les documents semi-structurés comme les documents XML présentent l&amp;rsquo;avantage de posséder une structure explicite qui facilite leur présentation et leur exploitation dans dif- férents contextes. Cependant, très souvent, la majeure partie de l&amp;rsquo;information reste contenue dans les champs textuels. Il est donc devenu primordial de concevoir des méthodes permettant d&amp;rsquo;exploiter à la fois la structure et le contenu textuel de ces documents. Les techniques clas- siques de Recherche d&amp;rsquo;Information (RI) n&amp;rsquo;utilisent pas ou peu la structure des documents alors que les langages de requête issus de la communauté Bases de Données (BD) n&amp;rsquo;exploitent pas le contenu textuel et ne permettent pas une présentation des résultats par ordre de pertinence. De plus en plus de chercheurs essaient de combiner les approches de RI et de BD pour pallier leurs limites respectives. Dans ce travail, nous présentons une structure d&amp;rsquo;index qui permet des requêtes structurées et une présentation des résultats par ordre de pertinence. Pour cela, nous avons étendu le modèle vectoriel de Salton pour une vue bi-dimensionnelle du document en adaptant le calcul du TF-IDF. Par ailleurs, nous proposons d&amp;rsquo;utiliser une ontologie reliée aux termes du corpus pour modéliser la notion de voisinage sémantique à l&amp;rsquo;aide d&amp;rsquo;un calcul de simi- larité entre termes. Cette indexation permet donc une recherche contextuelle (par la structure) et sémantique (par l&amp;rsquo;ontologie).&lt;/p&gt;</description>
    </item>
    <item>
      <title>Grammatical Inference and Textual Information Extraction.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.179/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.179/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;L&amp;rsquo;objectif de l&amp;rsquo;Extraction de Connaissances Textuelles (ECT) est la recherche de mo- tifs intéressants dans les documents. La plupart des techniques employées dans ce domaine n&amp;rsquo;utilisent pas la structure linguistique, étant donnée le coût d&amp;rsquo;une analyse morpho-syntaxique (complète) et l&amp;rsquo;absence du respect des règles grammaticale (langue naturelle) dans ces textes. Dans ce contexte, l&amp;rsquo;Inférence Grammaticale peut être utilisée pour extraire la structure d&amp;rsquo;un texte (ou de ses sous-languages) afin de permettre une recherche informée dans une base de données textuelles. Dans cet article, nous présentons une contribution de l&amp;rsquo;Inférence Gramma- ticale dans le domaine d&amp;rsquo;ECT et exposons les éléments d&amp;rsquo;un processus d&amp;rsquo;extraction appliqué à un corpus d&amp;rsquo;annonces de séminaire.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Extraction d&#39;information à partir d&#39;articles médicaux.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.197/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.197/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;L&amp;rsquo;essentiel de l&amp;rsquo;information médicale est actuellement accessible dans diverses bibliothèques numériques ou sur le Web. Toutefois, l&amp;rsquo;usager désire parfois obtenir une information précise mais perdue dans un document spécifique. Dans cet article, nous proposons une approche automatique à ce problème d&amp;rsquo;extraction d&amp;rsquo;information. A partir du titre et du résumé d&amp;rsquo;articles médicaux touchant le domaine de la génétique, notre système s&amp;rsquo;avère capable d&amp;rsquo;y extraire le descripteur caractérisant un gène spécifique. Notre stratégie d&amp;rsquo;extraction, basée sur la régression logistique, a été évaluée sur un corpus de documents lié au forum d&amp;rsquo;évaluation TREC et a démontré une performance supérieure à la moyenne.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Apprentissage non-supervisé pour la segmentation automatique de textes.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.213/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.213/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Nous proposons dans cet article une approche basée sur des techniques d&amp;rsquo;appren- tissage pour la segmentation automatique de texte. Nous considérons un paragraphe comme l&amp;rsquo;entité textuelle de base. Notre système découvre d&amp;rsquo;abord diffèrents concepts présents dans un texte, chaque concept étant défini par un ensemble représentatif de mots. Le texte est en- suite segmenté suivant des paragraphes en utilisant une technique de partitionnement basée sur la vraisemblance classifiante. Nous évaluons l&amp;rsquo;efficacité de cette technique sur un ensemble concaténé de paragraphes de la collection 7sectors et nous la comparons à une technique de&lt;/p&gt;</description>
    </item>
    <item>
      <title>Recherche de la pertinence et de la nouveauté dans les textes.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.229/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.229/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Les systèmes de recherche d&amp;rsquo;information s&amp;rsquo;intéressent à retrouver les documents pertinents par rapport à un besoin défini par un utilisateur. Certains systèmes se sont intéressés à mieux répondre au besoin de l&amp;rsquo;utilisateur en considérant un niveau de granularité plus petit que le document. Dans ces systèmes, les informations restituées à l&amp;rsquo;utilisateur ne correspondent pas aux documents mais aux passages susceptibles de correspondre au besoin exprimé. Cet article répond à la double tâche proposée dans le programme TREC : rechercher les passages pertinents et ceux qui apportent de la nouveauté. Nous présentons une nouvelle stratégie de sélection de passages qui permet d&amp;rsquo;être efficace sans utiliser de ressources extérieures. Nous discutons les résultats obtenus sur les collections de TREC utilisées en 2002 et 2003.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Un modèle à base de chemin de lecture pour la Recherche d&#39;Informations précises sur le Web.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.249/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.249/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Actuellement, le noeud hypertexte (document) est utilisé comme la plus petite granularité d&amp;rsquo;information que l&amp;rsquo;utilisateur cherche. Nous supposons que le fait de considérer le noeud hypertexte comme unité informationnelle n&amp;rsquo;as pas toujours un sens, car il s&amp;rsquo;agit uniquement d&amp;rsquo;une contrainte physique. Dans la réalité, l&amp;rsquo;utilisateur peut avoir envie de rechercher un seul paragraphe, ou au contraire un ensemble de pages. Or, les SRI se basent sur la granularité d&amp;rsquo;un noeud comme unité de base. Cette contrainte physique peut être la cause de résultats non satisfaisants, typiquement des documents &amp;ldquo;bruités&amp;rdquo; contenant, en plus de l&amp;rsquo;information recherchée, d&amp;rsquo;autres informations non pertinentes. En plus, si nous manipulons les noeuds indépendamment les uns des autres sans prendre en compte les informations dispersées dans plusieurs noeuds, nous aurons probablement un &amp;ldquo;silence&amp;rdquo; dans les réponses, c&amp;rsquo;est-à-dire qu&amp;rsquo;il y a encore des informations pertinentes mais le SRI n&amp;rsquo;a pas pu les retrouver car les documents ont perdu leur contexte (les noeuds voisins) et les relations sémantiques entre eux. Dans cet article, nous redéfinissons la notion de document dans un contexte hypertexte et requête précise. Nous proposons, comme réponse précise à une requête, un document virtuel que nous appelons chemin de lecture. Ce dernier reflète la description de l&amp;rsquo;information sur les hypertextes. Il est formé de zones de texte dispersées dans un ou plusieurs documents connectés. Nous proposons un modèle permettant d&amp;rsquo;extraire les chemins de lecture. Nous utilisons les liens typés pour regrouper les zones de texte constituant chaque chemin. Pour celà, nous nous basons sur une technique heuristique et sur les valeurs de similarité entre les zones.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Recherche bilingue et multilingue d&#39;information.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.271/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.271/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Afin de pouvoir interroger des corpus écrits dans plusieurs langues, la stratégie la plus simple et la moins onéreuse consiste à traduire la requête soumise dans la (ou les) langue(s) souhaitée(s). Dans ce but, nous nous sommes appuyés sur des ressources dispo- nibles gratuitement sur le Web. En comparant l&amp;rsquo;efficacité du dépistage entre les requêtes traduites manuellement ou automatiquement, on constate que la machine s&amp;rsquo;avère moins bonne que l&amp;rsquo;être humain. Toutefois, cette première conclusion se base sur une moyenne et une analyse plus détaillée indique une forte variabilité, dans le dépistage de l&amp;rsquo;information, entre les performances des différentes traductions produites par la machine. La question qui se pose est de savoir si l&amp;rsquo;on peut prédire la performance d&amp;rsquo;une requête traduite afin de sélectionner seulement la meilleure ou les meilleures traductions. Afin de résoudre ce problème, nous avons conçu un système de prédiction basé sur la régression logistique et capable de prédire les meilleures traductions. L&amp;rsquo;évaluation de notre approche s&amp;rsquo;avère supé- rieure au meilleur système de traduction automatique.&lt;/p&gt;</description>
    </item>
    <item>
      <title>X-IOTA: Une plateforme distribuée ouverte pour l&#39;expérimentation en Recherche d&#39;Information.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.287/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.287/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Réaliser des expérimentations en Recherche d&amp;rsquo;Information est une activité lourde car nécessitant à la fois des outils rapides pour traiter des collections de taille significative, mais également des outils flexibles pour laisser le plus de latitude possible au champ de l&amp;rsquo;expérimen- tation. Le système X-IOTA a été développé pour répondre tout particulièrement au critère de flexibilité et donc pour favoriser la mise en place rapide d&amp;rsquo;expérimentations variées introduisant des aspects traitement de la langue. L&amp;rsquo;architecture proposée permet également une distribution des calculs. Finalement une interface de commande est mise en place afin de faciliter le suivi et l&amp;rsquo;évolution des calculs sur les différents sites ainsi que la visualisation plus conviviale des résultats.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Recherche et filtrage d&#39;information dans des transcriptions de conversations.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.307/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.307/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Nous nous intéressons dans cet article au problème de l&amp;rsquo;indexation de documents audio de type u conversation téléphonique ». Nous nous interrogeons en particulier sur le bien fondé de l&amp;rsquo;utilisation, pour ce type de documents, des méthodes d&amp;rsquo;indexation classiquement utilisées en recherche d&amp;rsquo;information textuelle. Pour répondre à ces questions, nous revisitons certaines hypothèses de la recherche d&amp;rsquo;information en étudiant la spécificité et l&amp;rsquo;applicabilité de ces hypothèses à des transcriptions de conversations téléphoniques. Nos observations nous conduisent à proposer les bases d&amp;rsquo;un système d&amp;rsquo;indexation pour ce type de documents qui comprend un module de découpage thématique de la conversation.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Audiovisual production invariant searching.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.333/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.333/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;La recherche de l&amp;rsquo;information non textuelle est un point fondamental dans l&amp;rsquo;industrie audiovisuelle où les besoins d&amp;rsquo;outils pour manipuler des contenus multimédia sont importants et diversifiés. Dans les documents vidéo, l&amp;rsquo;extraction de signature de style est un procédé extrêmement intéressant, puisqu&amp;rsquo;il fournit une nouvelle caractéristique pour la classification de contenus. Les documents vidéo peuvent avoir des caractéristiques et des propriétés très différentes. Cependant, on peut identifier des points communs à toutes les émissions politiques, ou toutes les retransmissions de matchs de football, ou encore tous les films réalisés par un même réalisateur. Ces points communs sont ce que nous appelons &amp;ldquo;invariants de production&amp;rdquo;. Un invariant de production caractérise un document ou une série de documents appartenant à une même &amp;lsquo;collection&amp;rsquo;, ou tourné par un même réalisateur, ou produit suivant les mêmes directives. Dans ce papier, nous proposons une transcription formelle de ce que nous appelons &amp;lsquo;un invariant de production&amp;rsquo; dans un segment vidéo à travers l&amp;rsquo;étude de l&amp;rsquo;évolution des caractéristiques de bas niveau. Nous proposons un algorithme pour l&amp;rsquo;extraction de segments invariants, applicable sur tout document audiovisuel, indépendamment de la nature des caractéristiques, de leur sens, et du type ou de la durée de l&amp;rsquo;invariant.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Vers un passage à l&#39;échelle pour un SGBD d&#39;images.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.347/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.347/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Un système de gestion de bases d&amp;rsquo;images doit a priori s&amp;rsquo;appuyer sur un système de gestion de bases de données (SGBD). Dans cet article, nous examinons expérimentalement les limitations des SGBD relationnels. Nous identifions ainsi un certain nombre d’écueils et apportons&lt;/p&gt;&#xA;&lt;h1 id=&#34;abstract&#34;&gt;Abstract&lt;/h1&gt;&#xA;&lt;p&gt;An image database system should use a database management system (DBMS). In this paper, we experiment relational DBMS limitations for such a purpose. We identify a number of pitfalls and provide some solutions too. Some are still partially supported. However, five key points have been identified so far: reducing the metadata size, introducing some redundant data, taking advantage of parallelism, classifying and distributing metadata, using different indexing schemes.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Query by Example for Symbolic Still Image Retrieval.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.363/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.363/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Cet article décrit et défini l&amp;rsquo;utilisation de requêtes par l&amp;rsquo;exemple (QBE) dans le cadre de recherche symbolique d&amp;rsquo;images photographiques. La nouveauté de cette approche consiste en l&amp;rsquo;utilisation conjointe d&amp;rsquo;indexation symbolique automatique et d&amp;rsquo;un formalisme de représentation de connaissances pour représenter le contenu des images. De plus, le mécanisme d&amp;rsquo;abstraction perm la recherche d&amp;rsquo;images par l&amp;rsquo;exemple et le bouclage de pertinence basés sur la représentation symbolique des images, et pas sur leur description signal de bas niveau. Nous montrons sur deux collections d&amp;rsquo;images d&amp;rsquo;un total de plus de 1100 photographies que la recherche par l&amp;rsquo;exemple fournit des résultats comparables à ceux par symboles en terme de mesures de rappel-précision.&lt;/p&gt;</description>
    </item>
    <item>
      <title>COCoFil: une plateforme de filtrage collaboratif orientée vers la communauté.</title>
      <link>http://www.asso-aria.org/coria/2004/papers/coria.2004.9/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>http://www.asso-aria.org/coria/2004/papers/coria.2004.9/</guid>
      <description>&lt;h1 id=&#34;résumé&#34;&gt;Résumé&lt;/h1&gt;&#xA;&lt;p&gt;Face à la quantité et la rapidité d&amp;rsquo;apparition de nouvelles informations au quotidien, l&amp;rsquo;utilisateur peut s&amp;rsquo;en remettre non seulement à des systèmes de filtrage d&amp;rsquo;information par le contenu mais aussi à des systèmes de filtrage collaboratif. Ainsi, il peut recevoir des recommandations grâce aux évaluations de la communauté des personnes partageant les mêmes centres d&amp;rsquo;intérêt. Cependant, l&amp;rsquo;utilisateur ne perçoit pas toujours favorablement le rapport coût-bénéfice que ce type de système apporte. Alors que la plupart des travaux dans la littérature focalisent sur les fonctions internes du système, nous présentons dans cet article une plateforme de filtrage collaboratif tournée vers l&amp;rsquo;innovation en matière de fonctionnalités interactives visant à améliorer ce rapport coût-bénéfice. Cela est fait notamment au travers de fonctionnalités orientées vers la notion de communauté. La possibilité de paramétrer personnellement et finement le système (confidentialité, choix des fonctionnalités intéressantes) est également assurée, car elle devient indispensable dans ce nouveau cadre.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
