論文の概要: R2-D2: A Modular Baseline for Open-Domain Question Answering
- arxiv url: http://arxiv.org/abs/2109.03502v1
- Date: Wed, 8 Sep 2021 08:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 00:03:25.226158
- Title: R2-D2: A Modular Baseline for Open-Domain Question Answering
- Title(参考訳): R2-D2: オープンドメイン質問回答のためのモジュールベースライン
- Authors: Martin Fajcik, Martin Docekal, Karel Ondrej and Pavel Smrz
- Abstract要約: この研究は、新しい4段階のオープンドメインQAパイプラインR2-D2(Rank twice, reaD twice)を提示する。
パイプラインは、レトリバー、パスリランカ、抽出リーダ、生成リーダ、およびすべてのシステムコンポーネントから最終的な予測を集約するメカニズムで構成されている。
- 参考スコア(独自算出の注目度): 0.1529342790344802
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This work presents a novel four-stage open-domain QA pipeline R2-D2 (Rank
twice, reaD twice). The pipeline is composed of a retriever, passage reranker,
extractive reader, generative reader and a mechanism that aggregates the final
prediction from all system's components. We demonstrate its strength across
three open-domain QA datasets: NaturalQuestions, TriviaQA and EfficientQA,
surpassing state-of-the-art on the first two. Our analysis demonstrates that:
(i) combining extractive and generative reader yields absolute improvements up
to 5 exact match and it is at least twice as effective as the posterior
averaging ensemble of the same models with different parameters, (ii) the
extractive reader with fewer parameters can match the performance of the
generative reader on extractive QA datasets.
- Abstract(参考訳): この研究は、新しい4段階のオープンドメインQAパイプラインR2-D2(Rank twice, reaD twice)を提示する。
このパイプラインは、レトリバー、パスリランクカー、抽出リーダ、生成リーダと、システムの全コンポーネントから最終的な予測を集約するメカニズムで構成されている。
オープンドメインのQAデータセットであるNaturalQuestions、TriviaQA、EfficientQAの3つにまたがって、その強さを実証する。
分析の結果, (i) 抽出読取機と生成読取機を組み合わせれば, 5 個の正確な一致が得られ, 同一モデルの後方平均アンサンブルの2倍の有効性が得られ, (ii) 少ないパラメータの抽出読取機は, 抽出 QA データセット上で生成読取機の性能と一致できることがわかった。
関連論文リスト
- A Unified One-Step Solution for Aspect Sentiment Quad Prediction [3.428123050377681]
アスペクトベースの感情分析において、アスペクト感情クワッド予測(ASQP)は難しいが重要なサブタスクである。
我々はASQPのための2つの新しいデータセットをリリースし、このデータセットには、より大きなサイズ、サンプルあたりの単語数、より高密度の2つの特徴が含まれている。
そこで我々は,ASQPを統一したワンステップソリューションであるOne-ASQPを提案し,アスペクトカテゴリを検出し,アスペクト-オピニオン-感覚三重項を同時に同定する。
論文 参考訳(メタデータ) (2023-06-07T05:00:01Z) - Retrieval as Attention: End-to-end Learning of Retrieval and Reading
within a Single Transformer [80.50327229467993]
学習した1つのモデルが競合検索とQA性能の両方を達成可能であることを示す。
エンドツーエンド適応は、教師なし設定と教師なし設定の両方において、ドメイン外のデータセットのパフォーマンスを大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-12-05T04:51:21Z) - Grape: Knowledge Graph Enhanced Passage Reader for Open-domain Question
Answering [36.85435188308579]
オープンドメイン質問応答(QA)モデルの一般的なスレッドは、最初にWikipediaからいくつかの関連するパスを検索するレトリバー・リーダー・パイプラインを使用している。
オープンドメインQAの読み出し性能を改善するため,グラフ拡張パスリーダ,すなわちGrapeを提案する。
論文 参考訳(メタデータ) (2022-10-06T14:06:04Z) - KG-FiD: Infusing Knowledge Graph in Fusion-in-Decoder for Open-Domain
Question Answering [68.00631278030627]
検索した通路間の構造的関係を知識グラフで利用することにより,ノイズのある通路をフィルタする新しい手法KG-FiDを提案する。
我々は,KG-FiDが解答一致スコアの最大1.5%向上し,計算コストの40%程度でFiDに匹敵する性能が得られることを示した。
論文 参考訳(メタデータ) (2021-10-08T18:39:59Z) - Question Answering Infused Pre-training of General-Purpose
Contextualized Representations [70.62967781515127]
汎用的文脈表現学習のための質問応答(QA)に基づく事前学習目的を提案する。
我々は、より正確なクロスエンコーダモデルの予測と一致するように、個別にパスと質問をエンコードするバイエンコーダQAモデルをトレーニングすることで、この目標を達成する。
ゼロショット, 少数ショットのパラフレーズ検出において, RoBERTa-large と過去の最先端のどちらよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-06-15T14:45:15Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - Pruning the Index Contents for Memory Efficient Open-Domain QA [0.1529342790344802]
本稿では,最先端のアプローチを組み合わせることで実現可能なことを示す,新たなパイプラインを提案する。
新たなr2-d2パイプラインを,レトリバー,リカッタ,抽出リーダ,生成リーダ,およびそれらの結合方法を提案する。
本研究は, オープンドメインQAシステムにインデックス, OS, ライブラリコンポーネントが組み合わさって6GiBドッカー画像に収まるような, 大規模インデックスの内容を抽出する簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-02-21T21:56:38Z) - End-to-End Training of Neural Retrievers for Open-Domain Question
Answering [32.747113232867825]
ニューラルレトリバーに対して、非監視および監督された方法が最も効果的に使用できるかは不明である。
Inverse Cloze Taskとマスク付きサラエントスパンによる教師なしプリトレーニングのアプローチを提案します。
また,OpenQAモデルにおけるリーダとレシーバコンポーネントのエンドツーエンド教師付きトレーニングのための2つのアプローチについても検討する。
論文 参考訳(メタデータ) (2021-01-02T09:05:34Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - MultiReQA: A Cross-Domain Evaluation for Retrieval Question Answering
Models [25.398047573530985]
ReQA(Retrieval Question answering)は、オープンコーパスから質問に対する文レベルの回答を検索するタスクである。
本稿では、公開されているQAデータセットから抽出された8つの検索QAタスクからなる新しいマルチドメインReQA評価スイートであるMultiReQAを提案する。
論文 参考訳(メタデータ) (2020-05-05T21:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。