Exemple de réponse de question de corpus

Par conséquent, nous avons négligé le coefficient et obtenu l`équation (11) au lieu de l`équation (10). Ensuite, les réponses des candidats sont évaluées selon leurs probabilités. Dans l`équation (10), il y a un problème où le moins le nombre de mots dans une réponse de candidat devient, plus sa probabilité de traduction augmente parce que la valeur du coefficient augmente comme l diminue. Le nombre des documents de D1 ∪ D2 a été égalisé à celui de D3 pour la comparaison équitable; nous l`avons mis à 80 documents. Les sorties du système ont été vérifiées manuellement. La deuxième méthode est le travail de Soricut et Brill (2006), qui traitait la tâche QA comme traduction. Ils ont utilisé l`IBM-Modèle1 (Brown et coll. D`autre part, les documents ont été récupérés à partir du Web une seule fois pour le système sans extension de requête: à l`aide de tous les mots de contenu. Les Unigrammes ont été utilisés comme caractéristique du style d`écriture. Figure Figure 1. Pour la traduction, les probabilités de traduction mot par mot sont apprises à l`aide d`un corpus de site Q&A. Les réponses des candidats ont été recueillies à partir des deux ensembles de documents récupérés par le système.

Chaque réponse candidate extraite des documents Web a été évaluée dans le module d`évaluation des réponses et le système QA a répondu au Top 5. L`évaluation de la réponse est formulée comme suit à l`aide d`IBM-Modèle1 (comme dans Berger et al. score d`évaluation de la réponse candidate en termes de pertinence du sujet, i. On a évalué les cinq meilleures précisions et le MRR (rang moyen réciproque) du système d`AQ. Dans leur travail, l`information mutuelle a été utilisée pour mesurer le degré de pertinence entre un mot dans chaque question et un mot dans sa réponse. Afin d`atténuer la dérive sémantique, nous proposons d`utiliser des informations mutuelles basées sur deux mots dans chaque question et un mot dans sa réponse. Enfin, Ishioroshi et coll. Le degré de pertinence du mot pertinent, i. Nous pouvons avoir l`équation (10) en supposant que c (ai | a) est 1/l comme Brown et al.

la figure Figure11 montre les contours de la récupération des documents Web et l`évaluation de la réponse candidate des systèmes avec et sans extension de requête. Les réponses des candidats ont été recueillies auprès d`eux. Dans leur méthode, chaque question et sa réponse sont considérées respectivement comme les phrases source et cible. Le paramètre de pondération γ est défini sur 0. Le score proposé par Ishioroshi et coll. Lorsqu`une question est entrée dans le système, ce système calcule les probabilités de traduction de la question dans les réponses de leurs candidats. La réponse de la sortie du système est correcte si elle est dans le Top-5 réponses lorsque la précision Top-5 est calculée. Berger et coll. Les documents ont été récupérés à partir du Web deux fois pour le système avec l`extension de requête: à l`aide de tous les mots de contenu et en utilisant tous les mots de contenu et tous les nouveaux mots pour l`expansion des requêtes.

Ils ont réussi à évaluer simultanément la pertinence du sujet et le style d`écriture. WQ et wa représentent des variables aléatoires binaires qui indiquent si un mot WQ apparaît dans chaque question et si un mot wa apparaît dans sa réponse, respectivement.