論文の概要: Learning to Select the Relevant History Turns in Conversational Question
Answering
- arxiv url: http://arxiv.org/abs/2308.02294v1
- Date: Fri, 4 Aug 2023 12:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 13:03:14.971485
- Title: Learning to Select the Relevant History Turns in Conversational Question
Answering
- Title(参考訳): 対話型質問応答における関係履歴ターンの選択学習
- Authors: Munazza Zaib and Wei Emma Zhang and Quan Z. Sheng and Subhash Sagar
and Adnan Mahmood and Yang Zhang
- Abstract要約: 関連する履歴の選択と正しい回答予測の依存関係は興味深いが、探索されていない領域である。
本稿では,まず,すべての履歴ターンのコンテキストと質問エンティティを生成するフレームワークであるDHS-ConvQAを提案する。
関連ターンの選択は、元の質問を書き換えるよりも有効であることを示す。
- 参考スコア(独自算出の注目度): 27.049444003555234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing demand for the web-based digital assistants has given a rapid
rise in the interest of the Information Retrieval (IR) community towards the
field of conversational question answering (ConvQA). However, one of the
critical aspects of ConvQA is the effective selection of conversational history
turns to answer the question at hand. The dependency between relevant history
selection and correct answer prediction is an intriguing but under-explored
area. The selected relevant context can better guide the system so as to where
exactly in the passage to look for an answer. Irrelevant context, on the other
hand, brings noise to the system, thereby resulting in a decline in the model's
performance. In this paper, we propose a framework, DHS-ConvQA (Dynamic History
Selection in Conversational Question Answering), that first generates the
context and question entities for all the history turns, which are then pruned
on the basis of similarity they share in common with the question at hand. We
also propose an attention-based mechanism to re-rank the pruned terms based on
their calculated weights of how useful they are in answering the question. In
the end, we further aid the model by highlighting the terms in the re-ranked
conversational history using a binary classification task and keeping the
useful terms (predicted as 1) and ignoring the irrelevant terms (predicted as
0). We demonstrate the efficacy of our proposed framework with extensive
experimental results on CANARD and QuAC -- the two popularly utilized datasets
in ConvQA. We demonstrate that selecting relevant turns works better than
rewriting the original question. We also investigate how adding the irrelevant
history turns negatively impacts the model's performance and discuss the
research challenges that demand more attention from the IR community.
- Abstract(参考訳): ウェブベースのデジタルアシスタントの需要の増加は、会話型質問応答(ConvQA)分野への情報検索(IR)コミュニティの関心を急速に高めた。
しかし、ConvQAの重要な側面の1つは、会話履歴の効果的な選択が、手元にある質問に答えることである。
関連する履歴選択と正しい回答予測の依存性は興味深いが、未検討領域である。
選択された関連するコンテキストは、答えを探すための通路の正確な場所をシステムに案内するのに役立つ。
一方、関係のないコンテキストはシステムにノイズをもたらし、結果としてモデルの性能が低下する。
そこで,本稿では,まず,すべての履歴ターンに対して文脈と質問エンティティを生成し,その後,質問と共通する類似性に基づいてprunする,dhs-convqa(dynamic history selection in conversational question answering)というフレームワークを提案する。
また,疑問に答える上でどれだけ有用かの計算した重みに基づいて,pruned項を再ランクするアテンションベースのメカニズムを提案する。
最後に、二項分類タスクを用いて再ランクされた会話履歴の用語を強調表示し、有用語(1と予測される)を維持し、無関係語(0と予測される)を無視してモデルをさらに支援する。
提案するフレームワークの有効性を,CANARDとQuAC(ConvQAで広く使用されている2つのデータセット)の広範な実験結果で実証する。
関連ターンの選択は、元の質問を書き換えるよりも有効であることを示す。
また,無関係な履歴の付加がモデルの性能に悪影響を及ぼすことを検証し,irコミュニティの注意を喚起する研究課題について考察した。
関連論文リスト
- Consistency Training by Synthetic Question Generation for Conversational Question Answering [14.211024633768986]
我々は、歴史的情報を合成的な質問で強化し、その推論を無関係な歴史に対して堅牢にする。
これは、会話型QA設定をモデル化するためのデータ拡張の一形態として、質問生成を用いた最初の研究例である。
論文 参考訳(メタデータ) (2024-04-17T06:49:14Z) - Selecting Query-bag as Pseudo Relevance Feedback for Information-seeking Conversations [76.70349332096693]
情報検索対話システムは電子商取引システムで広く利用されている。
クエリバッグに基づくPseudo Relevance Feedback framework(QB-PRF)を提案する。
関連クエリを備えたクエリバッグを構築し、擬似シグナルとして機能し、情報検索の会話をガイドする。
論文 参考訳(メタデータ) (2024-03-22T08:10:32Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Open-Domain Conversational Question Answering with Historical Answers [29.756094955426597]
本稿では,過去の回答を利用して検索性能を向上させるConvADR-QAを提案する。
提案手法では,学習者側が学習者側から発する雑音を低減させるため,学習者側で学習者側で学習を行う。
ベンチマークデータセットOR-QuACを用いた実験では,抽出および生成の両方において,既存のベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-17T08:20:57Z) - CoHS-CQG: Context and History Selection for Conversational Question
Generation [31.87967788600221]
入力のコンテキストと履歴を短縮するCoHSモジュールを採用した2段階CQGフレームワークを提案する。
本モデルは,応答認識と応答認識の両方の設定において,CoQAの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-14T13:58:52Z) - BERT-CoQAC: BERT-based Conversational Question Answering in Context [10.811729691130349]
履歴変換をシステム内に組み込むためのBERTという,パブリックに利用可能なプリトレーニング言語モデルに基づくフレームワークを紹介する。
実験の結果,我々のフレームワークはQuACリーダボードの最先端モデルと同等の性能を示した。
論文 参考訳(メタデータ) (2021-04-23T03:05:17Z) - A Graph-guided Multi-round Retrieval Method for Conversational
Open-domain Question Answering [52.041815783025186]
本稿では,会話のターン間の回答間の関係をモデル化するグラフ誘導検索手法を提案する。
また,検索コンテキストが現在の質問理解に与える影響を検討するために,マルチラウンド関連フィードバック手法を導入することを提案する。
論文 参考訳(メタデータ) (2021-04-17T04:39:41Z) - Open-Retrieval Conversational Question Answering [62.11228261293487]
オープン検索型対話型質問応答 (ORConvQA) の設定を導入する。
ORConvQAのエンド・ツー・エンドシステムを構築し,レトリバー,リランカ,およびすべてトランスフォーマーをベースとしたリーダを特徴とする。
論文 参考訳(メタデータ) (2020-05-22T19:39:50Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。