論文の概要: Machine Reading Comprehension using Case-based Reasoning
- arxiv url: http://arxiv.org/abs/2305.14815v1
- Date: Wed, 24 May 2023 07:09:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 18:54:36.952600
- Title: Machine Reading Comprehension using Case-based Reasoning
- Title(参考訳): ケースベース推論を用いた機械読解
- Authors: Dung Thai, Dhruv Agarwal, Mudit Chaudhary, Rajarshi Das, Manzil
Zaheer, Jay-Yoon Lee, Hannaneh Hajishirzi, Andrew McCallum
- Abstract要約: 本稿では,機械読解における解答抽出の正確かつ解釈可能な手法を提案する。
本手法は,類似した質問に対する文脈的回答が相互に意味的類似性を共有するという仮説に基づいている。
我々は,CBR-MRCが大規模リーダモデルに匹敵する高いテスト精度を実現することを示す。
- 参考スコア(独自算出の注目度): 70.5277109364545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an accurate and interpretable method for answer extraction in
machine reading comprehension that is reminiscent of case-based reasoning (CBR)
from classical AI. Our method (CBR-MRC) builds on the hypothesis that
contextualized answers to similar questions share semantic similarities with
each other. Given a target question, CBR-MRC retrieves a set of similar
questions from a memory of observed cases and predicts an answer by selecting
the span in the target context that is most similar to the contextualized
representations of answers in the retrieved cases. The semi-parametric nature
of our approach allows CBR-MRC to attribute a prediction to the specific set of
cases used during inference, making it a desirable choice for building reliable
and debuggable QA systems. We show that CBR-MRC achieves high test accuracy
comparable with large reader models, outperforming baselines by 11.5 and 8.4 EM
on NaturalQuestions and NewsQA, respectively. Further, we also demonstrate the
ability of CBR-MRC in identifying not just the correct answer tokens but also
the span with the most relevant supporting evidence. Lastly, we observe that
contexts for certain question types show higher lexical diversity than others
and find CBR-MRC to be robust to these variations while performance using
fully-parametric methods drops.
- Abstract(参考訳): 本稿では,古典的AIからケースベース推論(CBR)を連想させる機械読解における解答抽出法を提案する。
提案手法(cbr-mrc)は,類似質問に対する文脈的回答が相互に意味的類似性を持つという仮説に基づいている。
対象の質問が与えられた場合、CBR-MRCは、観測された事例の記憶から類似した質問の集合を検索し、検索された事例の回答の文脈化された表現と最もよく似たターゲットコンテキストにおけるスパンを選択することにより、回答を予測する。
提案手法の半パラメトリックな性質により,CBR-MRCは推論時に使用するケースの特定のセットを予測できるため,信頼性の高いデバッグ可能なQAシステムを構築する上で望ましい選択となる。
我々は,CBR-MRCが大規模読者モデルに匹敵する高い検定精度を達成し,NaturalQuestionsとNewsQAでそれぞれ11.5と8.4のEMを上回ったことを示す。
さらに,cbr-mrcが正しい回答トークンだけでなく,最も関連する裏付けとなる証拠のスパンを識別できることを示す。
最後に,特定の問合せの文脈は他よりも語彙的多様性が高く,CBR-MRCはこれらの変動に対して頑健であり,完全にパラメトリックな手法を用いる性能は低下する。
関連論文リスト
- QLSC: A Query Latent Semantic Calibrator for Robust Extractive Question Answering [32.436530949623155]
クエリの潜在セマンティックセンターの特徴を捉えるために,ユニークなスケーリング戦略を提案する。
これらの機能は、従来のクエリとパスの埋め込みにシームレスに統合されます。
提案手法は,テキスト形式の変化に対する感度を低下させ,正確な回答をピンポイントするモデルの能力を高める。
論文 参考訳(メタデータ) (2024-04-30T07:34:42Z) - CBR-RAG: Case-Based Reasoning for Retrieval Augmented Generation in LLMs for Legal Question Answering [1.0760413363405308]
Retrieval-Augmented Generation (RAG) は、入力のコンテキストとして事前知識を提供することで、Large Language Model (LLM) の出力を向上させる。
ケースベース推論(CBR)は、LLMにおけるRAGプロセスの一部として、構造検索を行う重要な機会を提供する。
我々は,CBRサイクルの初期検索段階,インデックス語彙,類似性知識コンテナを,文脈に関連のあるケースでLLMクエリを強化するために使用するCBR-RAGを紹介する。
論文 参考訳(メタデータ) (2024-04-04T21:47:43Z) - Momentum Contrastive Pre-training for Question Answering [54.57078061878619]
MCROSSはモーメントコントラスト学習フレームワークを導入し、クローゼのような解答確率と自然な問合せのサンプルペアを一致させる。
本手法は,教師付きシナリオとゼロショットシナリオの両方において,すべてのベースラインと比較して顕著な改善を実現している。
論文 参考訳(メタデータ) (2022-12-12T08:28:22Z) - Benchmarking Answer Verification Methods for Question Answering-Based
Summarization Evaluation Metrics [74.28810048824519]
質問応答に基づく要約評価メトリクスは、QAモデルの予測が正しいかどうかを自動的に判断する必要がある。
筆者らは,現在QAベースのメトリクスで使用されている語彙的回答検証手法と,より洗練された2つのテキスト比較手法をベンチマークした。
論文 参考訳(メタデータ) (2022-04-21T15:43:45Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Case-based Reasoning for Natural Language Queries over Knowledge Bases [41.54465521439727]
本稿では,大きな知識ベースに対する質問応答のための神経シンボル的CBR手法を提案する。
CBR-KBQAは、ケースを格納する非パラメトリックメモリとパラメトリックモデルという2つのモジュールから構成される。
CBR-KBQAは、ケースメモリに表示されない関係の新規な組み合わせを効果的に導出できることを示す。
論文 参考訳(メタデータ) (2021-04-18T07:50:31Z) - Counterfactual Variable Control for Robust and Interpretable Question
Answering [57.25261576239862]
ディープニューラルネットワークに基づく質問応答(QA)モデルは、多くの場合、堅牢でも説明もできない。
本稿では、因果推論を用いてQAモデルのこのような突発的な「能力」を検証する。
本稿では,任意のショートカット相関を明示的に緩和する,CVC(Counterfactual Variable Control)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-12T10:09:05Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。