論文の概要: Conversational Answer Generation and Factuality for Reading
Comprehension Question-Answering
- arxiv url: http://arxiv.org/abs/2103.06500v1
- Date: Thu, 11 Mar 2021 06:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:48:48.486861
- Title: Conversational Answer Generation and Factuality for Reading
Comprehension Question-Answering
- Title(参考訳): 理解型質問文読解のための会話応答生成とファクタリティ
- Authors: Stan Peshterliev, Barlas Oguz, Debojeet Chatterjee, Hakan Inan, Vikas
Bhardwaj
- Abstract要約: 抽出的読解(RC)は、テキストパスの解答スパンを見つける。
マルチパスからの回答生成とパッセージランキングと回答性を組み合わせた,エンドツーエンドのジェネラティブRCモデルであるAquillBARTを提案する。
実験の結果、AnswerBARTはMS MARCO 2.1 NLGENを2.5ROUGE-L、NarrativeQAを9.4ROUGE-Lで改善した。
- 参考スコア(独自算出の注目度): 3.791734585182198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question answering (QA) is an important use case on voice assistants. A
popular approach to QA is extractive reading comprehension (RC) which finds an
answer span in a text passage. However, extractive answers are often unnatural
in a conversational context which results in suboptimal user experience. In
this work, we investigate conversational answer generation for QA. We propose
AnswerBART, an end-to-end generative RC model which combines answer generation
from multiple passages with passage ranking and answerability. Moreover, a
hurdle in applying generative RC are hallucinations where the answer is
factually inconsistent with the passage text. We leverage recent work from
summarization to evaluate factuality. Experiments show that AnswerBART
significantly improves over previous best published results on MS MARCO 2.1
NLGEN by 2.5 ROUGE-L and NarrativeQA by 9.4 ROUGE-L.
- Abstract(参考訳): 質問応答(QA)は音声アシスタントにとって重要なユースケースである。
QAに対する一般的なアプローチは、テキストの文節に回答が散在するのを見つける抽出読解(RC)である。
しかし、抽出的な答えは、会話の文脈ではしばしば不自然であり、最適なユーザーエクスペリエンスをもたらす。
本研究では,QAにおける会話応答生成について検討する。
マルチパスからの回答生成とパッセージランキングと回答性を組み合わせた,エンドツーエンドのジェネラティブRCモデルであるAquillBARTを提案する。
さらに、生成RCを適用する際のハードルは、答えが実際には通過テキストと矛盾する幻覚である。
我々は最近の成果を要約から活用して事実性を評価する。
実験の結果、AnswerBARTはMS MARCO 2.1 NLGENを2.5ROUGE-L、NarrativeQAを9.4ROUGE-Lで改善した。
関連論文リスト
- Boosting Conversational Question Answering with Fine-Grained Retrieval-Augmentation and Self-Check [25.63538452425097]
本稿では,対話型質問応答のための細粒度検索と自己チェックを組み込んだ対話レベルのRAG手法を提案する。
特に,本手法は,対話型質問精算器,きめ細かい検索器,自己チェックに基づく応答生成器の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-03-27T04:20:18Z) - SpeechDPR: End-to-End Spoken Passage Retrieval for Open-Domain Spoken Question Answering [76.4510005602893]
SQA(Spken Question Answering)は、機械がユーザの質問に応答するために必要である。
本稿では、最初のエンドツーエンドフレームワークであるSpeechDPR(SpeechDPR)を提案する。
教師なしASR (UASR) と高密度テキスト検索器 (TDR) のカスケードモデルから知識を抽出して文レベルの意味表現を学習する
論文 参考訳(メタデータ) (2024-01-24T14:08:38Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Phrase Retrieval for Open-Domain Conversational Question Answering with
Conversational Dependency Modeling via Contrastive Learning [54.55643652781891]
Open-Domain Conversational Question Answering (ODConvQA)は、マルチターン会話を通じて質問に答えることを目的としている。
そこで本研究では,単語列に対する句検索方式を用いて,回答を直接予測する手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T09:46:38Z) - Answering Unanswered Questions through Semantic Reformulations in Spoken
QA [20.216161323866867]
Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:19:27Z) - Open-Domain Conversational Question Answering with Historical Answers [29.756094955426597]
本稿では,過去の回答を利用して検索性能を向上させるConvADR-QAを提案する。
提案手法では,学習者側が学習者側から発する雑音を低減させるため,学習者側で学習者側で学習を行う。
ベンチマークデータセットOR-QuACを用いた実験では,抽出および生成の両方において,既存のベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-17T08:20:57Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - A Graph-guided Multi-round Retrieval Method for Conversational
Open-domain Question Answering [52.041815783025186]
本稿では,会話のターン間の回答間の関係をモデル化するグラフ誘導検索手法を提案する。
また,検索コンテキストが現在の質問理解に与える影響を検討するために,マルチラウンド関連フィードバック手法を導入することを提案する。
論文 参考訳(メタデータ) (2021-04-17T04:39:41Z) - Retrospective Reader for Machine Reading Comprehension [90.6069071495214]
機械読み取り理解(英: Machine reading comprehension、MRC)とは、機械が与えられた文節に基づいて質問に対する正しい答えを決定することを要求するAIチャレンジである。
不可解な質問が MRC タスクに関与している場合、検証モジュールと呼ばれる本質的な検証モジュールがエンコーダに加えて特に必要となる。
本稿では, MRC タスクに対して, 解答不能な質問に対して, より優れた検証器設計を提案する。
論文 参考訳(メタデータ) (2020-01-27T11:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。