論文の概要: PAQ: 65 Million Probably-Asked Questions and What You Can Do With Them
- arxiv url: http://arxiv.org/abs/2102.07033v1
- Date: Sat, 13 Feb 2021 23:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:15:55.048235
- Title: PAQ: 65 Million Probably-Asked Questions and What You Can Do With Them
- Title(参考訳): PAQ:6500万件の質問と、それで何ができるのか
- Authors: Patrick Lewis and Yuxiang Wu and Linqing Liu and Pasquale Minervini
and Heinrich K\"uttler and Aleksandra Piktus and Pontus Stenetorp and
Sebastian Riedel
- Abstract要約: 問合せ(QA)ペアを直接活用するオープンドメイン問合せ解答モデルは、スピードとメモリの点で有望である。
PAQを補完する新しいQAペアレトリバー、RePAQを紹介します。
PAQはテスト質問をプリエンプションし、キャッシュするので、RePAQは最近の検索・読み取りモデルの精度と一致させることができる。
- 参考スコア(独自算出の注目度): 70.09741980324912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-domain Question Answering models which directly leverage question-answer
(QA) pairs, such as closed-book QA (CBQA) models and QA-pair retrievers, show
promise in terms of speed and memory compared to conventional models which
retrieve and read from text corpora. QA-pair retrievers also offer
interpretable answers, a high degree of control, and are trivial to update at
test time with new knowledge. However, these models lack the accuracy of
retrieve-and-read systems, as substantially less knowledge is covered by the
available QA-pairs relative to text corpora like Wikipedia. To facilitate
improved QA-pair models, we introduce Probably Asked Questions (PAQ), a very
large resource of 65M automatically-generated QA-pairs. We introduce a new
QA-pair retriever, RePAQ, to complement PAQ. We find that PAQ preempts and
caches test questions, enabling RePAQ to match the accuracy of recent
retrieve-and-read models, whilst being significantly faster. Using PAQ, we
train CBQA models which outperform comparable baselines by 5%, but trail RePAQ
by over 15%, indicating the effectiveness of explicit retrieval. RePAQ can be
configured for size (under 500MB) or speed (over 1K questions per second)
whilst retaining high accuracy. Lastly, we demonstrate RePAQ's strength at
selective QA, abstaining from answering when it is likely to be incorrect. This
enables RePAQ to ``back-off" to a more expensive state-of-the-art model,
leading to a combined system which is both more accurate and 2x faster than the
state-of-the-art model alone.
- Abstract(参考訳): クローズドブックQA(CBQA)モデルやQAペアレトリバーなど,質問応答(QA)ペアを直接活用するオープンドメイン質問回答モデルは,テキストコーパスから検索・読解する従来のモデルと比較して,速度とメモリの面で有望であることを示す。
QAペアレトリバーは、解釈可能な回答、高度な制御を提供し、新しい知識でテスト時に更新するのも簡単です。
しかし、これらのモデルは、ウィキペディアのようなテキストコーパスと比較して利用可能なQAペアによって、ほとんど知識がカバーされないため、検索と読み取りシステムの正確さに欠ける。
改良されたQAペアモデルを実現するために,65MのQAペアを自動生成する非常に大きなリソースであるProbably Asked Questions (PAQ)を導入する。
PAQを補完する新しいQAペアレトリバー、RePAQを紹介します。
私たちは、PAQがテスト質問をプリエンプンし、キャッシュし、RePAQが最近の検索と読み取りモデルの精度に一致するようにします。
PAQを用いて、同等のベースラインを5%上回り、RePAQを15%以上追従するCBQAモデルを訓練し、明示的な検索の有効性を示す。
RePAQは、高い精度を維持しながら、サイズ(500MB以下)や速度(毎秒1K以上の質問)を設定できる。
最後に, 選択QAにおけるRePAQの強さを実証し, 誤答の可能性を排除した。
これにより、repaqはより高価な最先端モデルに ``back-off" を適用でき、最先端モデル単独よりも正確で2倍高速である複合システムへと繋がる。
関連論文リスト
- Reinforced Question Rewriting for Conversational Question Answering [25.555372505026526]
対話型質問を自己完結型質問に書き換えるモデルを開発した。
既存のシングルターンQAシステムを使用することで、CQAモデルをスクラッチからトレーニングすることを回避することができる。
我々は、強化学習による書き換えモデルの監督にQAフィードバックを用いることを提案する。
論文 参考訳(メタデータ) (2022-10-27T21:23:36Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Will this Question be Answered? Question Filtering via Answer Model
Distillation for Efficient Question Answering [99.66470885217623]
本稿では,質問回答システム(QA)の効率向上に向けた新しいアプローチを提案する。
最新のQAシステムの回答信頼性スコアは、入力された質問テキストのみを使用してモデルによってうまく近似することができる。
論文 参考訳(メタデータ) (2021-09-14T23:07:49Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - Counterfactual Variable Control for Robust and Interpretable Question
Answering [57.25261576239862]
ディープニューラルネットワークに基づく質問応答(QA)モデルは、多くの場合、堅牢でも説明もできない。
本稿では、因果推論を用いてQAモデルのこのような突発的な「能力」を検証する。
本稿では,任意のショートカット相関を明示的に緩和する,CVC(Counterfactual Variable Control)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-12T10:09:05Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。