論文の概要: Weakly-Supervised Open-Retrieval Conversational Question Answering
- arxiv url: http://arxiv.org/abs/2103.02537v1
- Date: Wed, 3 Mar 2021 17:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 14:56:04.003851
- Title: Weakly-Supervised Open-Retrieval Conversational Question Answering
- Title(参考訳): Weakly-supvised Open-Retrieval Conversational Questioning
- Authors: Chen Qu, Liu Yang, Cen Chen, W. Bruce Croft, Kalpesh Krishna and Mohit
Iyyer
- Abstract要約: 既知の回答のパラフレーズスパンをパスで特定できる学習された弱い監督アプローチを紹介します。
解答と解答の両方を扱えるので,本手法はより柔軟である。
- 参考スコア(独自算出の注目度): 46.282017612887856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on Question Answering (QA) and Conversational QA (ConvQA)
emphasize the role of retrieval: a system first retrieves evidence from a large
collection and then extracts answers. This open-retrieval ConvQA setting
typically assumes that each question is answerable by a single span of text
within a particular passage (a span answer). The supervision signal is thus
derived from whether or not the system can recover an exact match of this
ground-truth answer span from the retrieved passages. This method is referred
to as span-match weak supervision. However, information-seeking conversations
are challenging for this span-match method since long answers, especially
freeform answers, are not necessarily strict spans of any passage. Therefore,
we introduce a learned weak supervision approach that can identify a
paraphrased span of the known answer in a passage. Our experiments on QuAC and
CoQA datasets show that the span-match weak supervisor can only handle
conversations with span answers, and has less satisfactory results for freeform
answers generated by people. Our method is more flexible as it can handle both
span answers and freeform answers. Moreover, our method can be more powerful
when combined with the span-match method which shows it is complementary to the
span-match method. We also conduct in-depth analyses to show more insights on
open-retrieval ConvQA under a weak supervision setting.
- Abstract(参考訳): 質問回答(QA)と会話QA(ConvQA)に関する最近の研究では、検索の役割を強調している。
このオープン検索可能なConvQA設定は、通常、各質問が特定の文節(スパン回答)内の1つのテキストで答えられると仮定する。
したがって、監視信号は、システムが検索された通路からこの接地正解の正確な一致を回復できるかどうかから導かれる。
この方法はスパンマッチ弱い監督と呼ばれる。
しかし、長い答え、特にフリーフォームの答えは必ずしも通路の狭いスパンではないため、このスパンマッチング法では情報検索会話は困難である。
そこで本研究では,既知の回答のパラフレーズスパンをパスで特定できる弱監督手法を提案する。
QuAC と CoQA データセットを用いた実験により,スパンマッチの弱いスーパーバイザはスパン応答でのみ会話を処理でき,人によって生成されるフリーフォーム回答に対する満足度の低い結果が得られることがわかった。
解答と解答の両方を扱えるので,本手法はより柔軟である。
さらに,スパンマッチ法と組み合わせることで,スパンマッチ法と相補的であることを示す場合,本手法はより強力である。
また,オープンレトリーバルのConvQAに関するより深い知見を,監督の弱い環境下でより深く分析する。
関連論文リスト
- Concise Answers to Complex Questions: Summarization of Long-form Answers [27.190319030219285]
我々は,最先端モデルから生成された要約された回答と,新たに提案した抽出・デコンテクライズ手法について,ユーザスタディを行った。
複雑で暗黙的な解答は圧縮が困難であるのに対し、少なくとも1つのシステムによって、大量の長文解答を適切に要約できることがわかった。
要約作業において,非コンテクスト化によって抽出された要約の質が向上し,その可能性を実証する。
論文 参考訳(メタデータ) (2023-05-30T17:59:33Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Reinforcement Learning from Reformulations in Conversational Question
Answering over Knowledge Graphs [28.507683735633464]
本研究では,質問や修正の会話の流れから学習できる強化学習モデル「ConQUER」を提案する。
実験では、CONQUERが騒々しい報酬信号から会話の質問に答えることに成功したことが示されています。
論文 参考訳(メタデータ) (2021-05-11T08:08:35Z) - A Graph-guided Multi-round Retrieval Method for Conversational
Open-domain Question Answering [52.041815783025186]
本稿では,会話のターン間の回答間の関係をモデル化するグラフ誘導検索手法を提案する。
また,検索コンテキストが現在の質問理解に与える影響を検討するために,マルチラウンド関連フィードバック手法を導入することを提案する。
論文 参考訳(メタデータ) (2021-04-17T04:39:41Z) - Conversational Answer Generation and Factuality for Reading
Comprehension Question-Answering [3.791734585182198]
抽出的読解(RC)は、テキストパスの解答スパンを見つける。
マルチパスからの回答生成とパッセージランキングと回答性を組み合わせた,エンドツーエンドのジェネラティブRCモデルであるAquillBARTを提案する。
実験の結果、AnswerBARTはMS MARCO 2.1 NLGENを2.5ROUGE-L、NarrativeQAを9.4ROUGE-Lで改善した。
論文 参考訳(メタデータ) (2021-03-11T06:53:07Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Open-Retrieval Conversational Question Answering [62.11228261293487]
オープン検索型対話型質問応答 (ORConvQA) の設定を導入する。
ORConvQAのエンド・ツー・エンドシステムを構築し,レトリバー,リランカ,およびすべてトランスフォーマーをベースとしたリーダを特徴とする。
論文 参考訳(メタデータ) (2020-05-22T19:39:50Z) - Conversational Question Answering over Passages by Leveraging Word
Proximity Networks [33.59664244897881]
CROWNは、経路応答を持つ会話型QAのための教師なしかつ効果的なシステムである。
複数のターンにまたがる複数のコンテキストの伝搬をサポートする。
CROWNはTREC CAsTデータで評価され、ニューラルネットワークのプールにおいて上述の性能を達成した。
論文 参考訳(メタデータ) (2020-04-27T19:30:47Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。