論文の概要: Answering Any-hop Open-domain Questions with Iterative Document
Reranking
- arxiv url: http://arxiv.org/abs/2009.07465v5
- Date: Mon, 24 May 2021 06:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:55:54.447334
- Title: Answering Any-hop Open-domain Questions with Iterative Document
Reranking
- Title(参考訳): イテレーティブドキュメンテーションでイエローホップなオープンドメインの質問に答える
- Authors: Ping Nie, Yuyu Zhang, Arun Ramamurthy, Le Song
- Abstract要約: オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
- 参考スコア(独自算出の注目度): 62.76025579681472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for open-domain question answering (QA) are typically
designed for questions that require either single-hop or multi-hop reasoning,
which make strong assumptions of the complexity of questions to be answered.
Also, multi-step document retrieval often incurs higher number of relevant but
non-supporting documents, which dampens the downstream noise-sensitive reader
module for answer extraction. To address these challenges, we propose a unified
QA framework to answer any-hop open-domain questions, which iteratively
retrieves, reranks and filters documents, and adaptively determines when to
stop the retrieval process. To improve the retrieval accuracy, we propose a
graph-based reranking model that perform multi-document interaction as the core
of our iterative reranking framework. Our method consistently achieves
performance comparable to or better than the state-of-the-art on both
single-hop and multi-hop open-domain QA datasets, including Natural Questions
Open, SQuAD Open, and HotpotQA.
- Abstract(参考訳): オープンドメイン質問応答(QA)の既存のアプローチは、通常、シングルホップまたはマルチホップの推論を必要とする質問に対して設計されている。
また、複数ステップの文書検索では、関連するがサポートされていない文書が多いため、下流のノイズに敏感なリーダモジュールを弱め、回答を抽出する。
これらの課題に対処するために,我々は,ドキュメントを反復的に検索,再ランク付け,フィルタリングし,検索プロセスを停止するタイミングを適応的に決定する,任意のホップのオープンドメイン質問に答える統一qaフレームワークを提案する。
検索精度を向上させるために,反復的リランキングフレームワークのコアとしてマルチドキュメントインタラクションを行うグラフベースのリランキングモデルを提案する。
提案手法は,Natural Questions Open, SQuAD Open, HotpotQAなど,シングルホップとマルチホップのオープンドメインのQAデータセットにおいて,最先端のQAデータセットと同等以上のパフォーマンスを実現する。
関連論文リスト
- QPaug: Question and Passage Augmentation for Open-Domain Question Answering of LLMs [5.09189220106765]
オープンドメイン問合せタスクのための大規模言語モデル(LLM)を介してQPaug(Q and passage augmentation)と呼ばれるシンプルで効率的な手法を提案する。
実験の結果,QPaugは従来の最先端技術よりも優れており,既存のRAG法よりも大きな性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-06-20T12:59:27Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Adaptive Information Seeking for Open-Domain Question Answering [61.39330982757494]
本稿では,オープンドメイン質問応答,すなわちAISOに対する適応型情報探索手法を提案する。
学習方針によると、AISOは適切な検索行動を選択し、各ステップで行方不明の証拠を探すことができる。
AISOは、検索と回答の評価の両方の観点から、事前定義された戦略で全てのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2021-09-14T15:08:13Z) - Memory Augmented Sequential Paragraph Retrieval for Multi-hop Question
Answering [32.69969157825044]
本稿では,段落を逐次データとしてモデル化し,マルチホップ情報検索をシーケンスラベリングタスクの一種とみなす新しいアーキテクチャを提案する。
本手法は,公開テキストマルチホップQAデータセットであるHotpotQAのフルwikiとイントラクタサブタスクの両方で評価する。
論文 参考訳(メタデータ) (2021-02-07T08:15:51Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval [117.07047313964773]
複雑なオープンドメインの質問に答えるために, 単純で効率的なマルチホップ高密度検索手法を提案する。
本手法では,文書間ハイパーリンクやアノテートされたエンティティマーカーなど,コーパス固有の情報へのアクセスは不要である。
提案システムでは,HotpotQA上でのベストパブリッシュ精度と,推論時の10倍の速度で,より優れた効率・精度のトレードオフも実現している。
論文 参考訳(メタデータ) (2020-09-27T06:12:29Z) - Knowledge-Aided Open-Domain Question Answering [58.712857964048446]
本稿では,知識支援型オープンドメインQA(KAQA)手法を提案する。
文書検索の際、質問と他の文書との関係を考慮し、候補文書を採点する。
回答の再ランク付けの間、候補の回答は、自身のコンテキストだけでなく、他の文書からのヒントを使って再ランクされる。
論文 参考訳(メタデータ) (2020-06-09T13:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。