論文の概要: Probabilistic Assumptions Matter: Improved Models for
Distantly-Supervised Document-Level Question Answering
- arxiv url: http://arxiv.org/abs/2005.01898v1
- Date: Tue, 5 May 2020 01:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:13:03.619595
- Title: Probabilistic Assumptions Matter: Improved Models for
Distantly-Supervised Document-Level Question Answering
- Title(参考訳): 確率的仮定が重要:遠隔教師付き文書レベルの質問応答モデルの改良
- Authors: Hao Cheng, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
- Abstract要約: 本稿では,文書レベルの遠隔スーパービジョンを用いた抽出質問応答の問題に対処する。
これらの仮定が相互作用し、異なる構成が相補的な利点をもたらすことを示す。
本稿では,TriviaQA-WikiのF1の4.3ポイント,NarrativeQA要約のRue-Lの1.7ポイントを比較検討した。
- 参考スコア(独自算出の注目度): 35.55031325165487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of extractive question answering using document-level
distant super-vision, pairing questions and relevant documents with answer
strings. We compare previously used probability space and distant super-vision
assumptions (assumptions on the correspondence between the weak answer string
labels and possible answer mention spans). We show that these assumptions
interact, and that different configurations provide complementary benefits. We
demonstrate that a multi-objective model can efficiently combine the advantages
of multiple assumptions and out-perform the best individual formulation. Our
approach outperforms previous state-of-the-art models by 4.3 points in F1 on
TriviaQA-Wiki and 1.7 points in Rouge-L on NarrativeQA summaries.
- Abstract(参考訳): 本稿では,文書レベルの超ビジョン,ペアリング質問,関連文書と回答文字列を用いた抽出質問応答の問題に対処する。
従来使用されていた確率空間と遠方スーパービジョンの仮定(弱い応答文字列ラベルと可能な応答参照スパンの対応性に関する仮定)を比較した。
これらの仮定が相互作用し、異なる構成が相補的な利点をもたらすことを示す。
多目的モデルが複数の仮定の利点を効果的に組み合わせ、最も優れた個別の定式化を達成できることを実証する。
本稿では,TriviaQA-WikiのF1の4.3ポイント,NarrativeQA要約のRue-Lの1.7ポイントを比較検討した。
関連論文リスト
- Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Improve Query Focused Abstractive Summarization by Incorporating Answer
Relevance [43.820971952979875]
本稿では,QFS-BARTモデルを提案する。QFS-BARTは,質問応答モデルによって与えられたソース文書の明示的な回答関連性を組み込んだモデルである。
我々のモデルは, 要約性能を大幅に向上させる, 事前学習された大規模モデルを利用することができる。
Debatepediaデータセットの実証結果は、提案したモデルが新しい最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-05-27T06:58:42Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z) - Learning with Instance Bundles for Reading Comprehension [61.823444215188296]
質問応答スコアを複数の関連インスタンスで比較する新しい監視手法を提案する。
具体的には、密接に対照的な質問や回答のさまざまな近所でこれらのスコアを正規化します。
2つのデータセット上のインスタンスバンドルによるトレーニングの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2021-04-18T06:17:54Z) - Mitigating False-Negative Contexts in Multi-document QuestionAnswering
with Retrieval Marginalization [29.797379277423143]
応答不能なクエリを適切に処理するset-valued検索の新しいパラメータ化を開発している。
トレーニング中にこの集合を限界化することで、モデルが注釈付き支持証拠の偽陰性を緩和できることを示す。
IIRCでは,代替文脈の余分化による連成モデリングによりモデル性能が5.5F1ポイント向上し,50.6F1の新たな最先端性能が得られることを示す。
論文 参考訳(メタデータ) (2021-03-22T23:44:35Z) - Answering Ambiguous Questions through Generative Evidence Fusion and
Round-Trip Prediction [46.38201136570501]
本稿では,複数の通路からの証拠を集約し,一つの回答や質問対の集合を適応的に予測するモデルを提案する。
我々のモデルはRefuelと呼ばれ、AmbigQAデータセット上で新しい最先端のパフォーマンスを実現し、NQ-OpenおよびTriviaQA上での競合性能を示す。
論文 参考訳(メタデータ) (2020-11-26T05:48:55Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。