論文の概要: Context Modeling with Evidence Filter for Multiple Choice Question
Answering
- arxiv url: http://arxiv.org/abs/2010.02649v1
- Date: Tue, 6 Oct 2020 11:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:56:11.126493
- Title: Context Modeling with Evidence Filter for Multiple Choice Question
Answering
- Title(参考訳): 複数質問応答のためのエビデンスフィルタを用いた文脈モデリング
- Authors: Sicheng Yu, Hao Zhang, Wei Jing, Jing Jiang
- Abstract要約: MCQA(Multi-Choice Question Answering)は、機械読解における課題である。
主な課題は、正しい答えをサポートする与えられたコンテキストから"エビデンス"を抽出することである。
既存の作業は、人間の努力に過度に依存するルールで注釈付きエビデンスや遠方の監督によってこの問題に取り組む。
本稿では,エンコードされた文脈間の関係をモデル化するためのエビデンスフィルタリング法を提案する。
- 参考スコア(独自算出の注目度): 18.154792554957595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple-Choice Question Answering (MCQA) is a challenging task in machine
reading comprehension. The main challenge in MCQA is to extract "evidence" from
the given context that supports the correct answer. In the OpenbookQA dataset,
the requirement of extracting "evidence" is particularly important due to the
mutual independence of sentences in the context. Existing work tackles this
problem by annotated evidence or distant supervision with rules which overly
rely on human efforts. To address the challenge, we propose a simple yet
effective approach termed evidence filtering to model the relationships between
the encoded contexts with respect to different options collectively and to
potentially highlight the evidence sentences and filter out unrelated
sentences. In addition to the effective reduction of human efforts of our
approach compared, through extensive experiments on OpenbookQA, we show that
the proposed approach outperforms the models that use the same backbone and
more training data; and our parameter analysis also demonstrates the
interpretability of our approach.
- Abstract(参考訳): MCQA(Multi-Choice Question Answering)は、機械読解における課題である。
MCQAの主な課題は、正しい答えをサポートする与えられたコンテキストから"エビデンス"を抽出することである。
openbookqaデータセットでは、文脈における文の相互独立性のため、"evidence"を抽出する必要性が特に重要である。
既存の作業は、人間の努力に過度に依存するルールで注釈付きの証拠や遠方の監督によってこの問題に取り組む。
この課題に対処するために,異なる選択肢に関して符号化されたコンテキスト間の関係をモデル化し,証拠文を強調表示し,無関係な文をフィルタリングする,簡易かつ効果的な手法を提案する。
提案手法は,OpenbookQAの広範な実験を通じて,提案手法が同じバックボーンとより多くのトレーニングデータを使用するモデルよりも優れていることを示すとともに,パラメータ解析により,我々のアプローチの解釈可能性も示している。
関連論文リスト
- Optimizing Language Model's Reasoning Abilities with Weak Supervision [48.60598455782159]
弱い教師付きベンチマークであるtextscPuzzleBen について,25,147 の複雑な質問,回答,人為的合理性からなる。
データセットのユニークな側面は、10,000の未注釈の質問を含めることであり、LLMの推論能力を高めるために、より少ないスーパーサイズのデータを活用することができる。
論文 参考訳(メタデータ) (2024-05-07T07:39:15Z) - Unsupervised Candidate Answer Extraction through Differentiable
Masker-Reconstructor Model [21.667471025804936]
本稿では,異なるMasker-Reconstructor(DMR)モデルを用いて,コンテキストパスの固有構造を利用する,教師なし候補解抽出手法を提案する。
我々は、教師付きおよび教師なし候補回答抽出手法の総合的なセットをベンチマークする。
本稿では,DMRモデルの有効性を,教師なし手法よりも優れた性能を示し,教師なし手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-10-19T19:07:08Z) - Progressive Evidence Refinement for Open-domain Multimodal Retrieval
Question Answering [20.59485758381809]
現在のマルチモーダル検索質問答えモデルは2つの大きな課題に直面している。
モデルへの入力として圧縮されたエビデンスの特徴を利用すると、エビデンス内の詳細な情報が失われる。
本稿では,これらの問題を緩和するための証拠検索と質問応答のための2段階の枠組みを提案する。
論文 参考訳(メタデータ) (2023-10-15T01:18:39Z) - Momentum Contrastive Pre-training for Question Answering [54.57078061878619]
MCROSSはモーメントコントラスト学習フレームワークを導入し、クローゼのような解答確率と自然な問合せのサンプルペアを一致させる。
本手法は,教師付きシナリオとゼロショットシナリオの両方において,すべてのベースラインと比較して顕著な改善を実現している。
論文 参考訳(メタデータ) (2022-12-12T08:28:22Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation [22.20733260041759]
我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T17:18:17Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - EviDR: Evidence-Emphasized Discrete Reasoning for Reasoning Machine
Reading Comprehension [39.970232108247394]
R-MRC(Reasoning Machine reading comprehension)は、テキストに基づく離散推論を必要とする複雑な質問に答えることを目的としている。
最先端のパフォーマンスを実現する従来のエンドツーエンドの手法は、証拠のモデリングに十分な注意を払うことで、この問題を解決することはめったにない。
文と節レベルの証拠を遠方からの監視に基づいて最初に検出するエビデンス強調離散推論手法(EviDR)を提案する。
論文 参考訳(メタデータ) (2021-08-18T06:49:58Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。