論文の概要: Relation-Guided Pre-Training for Open-Domain Question Answering
- arxiv url: http://arxiv.org/abs/2109.10346v1
- Date: Tue, 21 Sep 2021 17:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 15:08:08.162562
- Title: Relation-Guided Pre-Training for Open-Domain Question Answering
- Title(参考訳): オープンドメイン質問応答のための関係誘導事前学習
- Authors: Ziniu Hu, Yizhou Sun, Kai-Wei Chang
- Abstract要約: 複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
- 参考スコア(独自算出の注目度): 67.86958978322188
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Answering complex open-domain questions requires understanding the latent
relations between involving entities. However, we found that the existing QA
datasets are extremely imbalanced in some types of relations, which hurts the
generalization performance over questions with long-tail relations. To remedy
this problem, in this paper, we propose a Relation-Guided Pre-Training
(RGPT-QA) framework. We first generate a relational QA dataset covering a wide
range of relations from both the Wikidata triplets and Wikipedia hyperlinks. We
then pre-train a QA model to infer the latent relations from the question, and
then conduct extractive QA to get the target answer entity. We demonstrate that
by pretraining with propoed RGPT-QA techique, the popular open-domain QA model,
Dense Passage Retriever (DPR), achieves 2.2%, 2.4%, and 6.3% absolute
improvement in Exact Match accuracy on Natural Questions, TriviaQA, and
WebQuestions. Particularly, we show that RGPT-QA improves significantly on
questions with long-tail relations
- Abstract(参考訳): 複雑なオープンドメインの質問に答えるには、エンティティ間の潜在関係を理解する必要がある。
しかし,既存のQAデータセットはある種の関係において極めて不均衡であり,長い関係を持つ質問に対する一般化性能を損なうことが判明した。
本稿では,この問題を解決するためにRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
まず、ウィキデータとウィキペディアのハイパーリンクの両方から幅広い関係をカバーした関係性QAデータセットを生成する。
次に、質問から潜伏関係を推測するためにQAモデルを事前訓練し、抽出されたQAを対象の回答エンティティを取得する。
提案したRGPT-QA技術,人気のオープンドメインQAモデル,Dense Passage Retriever (DPR) を用いて事前トレーニングを行うことで,自然問題,TriviaQA,WebQuestionsにおけるExact Match精度の2.2%,2.4%,および6.3%の絶対改善が達成された。
特に,RGPT-QAが長い関係を持つ質問に対して有意に改善することを示す。
関連論文リスト
- IfQA: A Dataset for Open-domain Question Answering under Counterfactual
Presuppositions [54.23087908182134]
本稿では,QA(FifQA)と呼ばれる,最初の大規模対実的オープンドメイン質問応答(QA)ベンチマークを紹介する。
IfQAデータセットには3,800以上の質問が含まれている。
IfQAベンチマークによって引き起こされるユニークな課題は、検索と対実的推論の両方に関して、オープンドメインのQA研究を促進することである。
論文 参考訳(メタデータ) (2023-05-23T12:43:19Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - GTM: A Generative Triple-Wise Model for Conversational Question
Generation [36.33685095934868]
オープンドメイン対話型質問生成(CQG)のための階層的変動を考慮した3次元生成モデルを提案する。
提案手法は, 競争ベースラインよりも流線型, コヒーレンス, 多様性の観点から, 質問の質を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-07T14:07:07Z) - Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection [10.82418428209551]
質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
論文 参考訳(メタデータ) (2020-10-27T05:03:34Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。