論文の概要: REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement
- arxiv url: http://arxiv.org/abs/2012.13185v3
- Date: Thu, 25 Mar 2021 12:53:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:26:26.113922
- Title: REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement
- Title(参考訳): REM-Net:Recursive Erasure Memory Network for Commonsense Evidence Refinement
- Authors: Yinya Huang, Meng Fang, Xunlin Zhan, Qingxing Cao, Xiaodan Liang,
Liang Lin
- Abstract要約: REM-Netは、答えを説明できない低品質な証拠を消去することで証拠を洗練するためのモジュールを備えている。
既存の知識ベースから証拠を取得する代わりに、REM-Netは事前訓練された生成モデルを利用して、質問用にカスタマイズされた候補証拠を生成する。
結果はREM-Netの性能を示し、洗練された証拠が説明可能であることを示します。
- 参考スコア(独自算出の注目度): 130.8875535449478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When answering a question, people often draw upon their rich world knowledge
in addition to the particular context. While recent works retrieve supporting
facts/evidence from commonsense knowledge bases to supply additional
information to each question, there is still ample opportunity to advance it on
the quality of the evidence. It is crucial since the quality of the evidence is
the key to answering commonsense questions, and even determines the upper bound
on the QA systems performance. In this paper, we propose a recursive erasure
memory network (REM-Net) to cope with the quality improvement of evidence. To
address this, REM-Net is equipped with a module to refine the evidence by
recursively erasing the low-quality evidence that does not explain the question
answering. Besides, instead of retrieving evidence from existing knowledge
bases, REM-Net leverages a pre-trained generative model to generate candidate
evidence customized for the question. We conduct experiments on two commonsense
question answering datasets, WIQA and CosmosQA. The results demonstrate the
performance of REM-Net and show that the refined evidence is explainable.
- Abstract(参考訳): 質問に答えるとき、人々は特定の文脈に加えて、自分の豊かな世界知識を引き出すことが多い。
近年の研究では、共通知識ベースから支援事実・証拠を回収し、各質問に追加情報を提供する一方で、証拠の質を向上する機会は十分にある。
証拠の質は常識的な質問に答える鍵であり、qaシステムのパフォーマンスの上限も決定するので、これは非常に重要です。
本稿では,エビデンスの品質向上に対応するための再帰的消去メモリネットワーク(rem-net)を提案する。
これを解決するため、REM-Netは、質問に答えない低品質な証拠を再帰的に消去することで証拠を洗練するためのモジュールを備えている。
さらに、REM-Netは既存の知識ベースから証拠を取得する代わりに、事前訓練された生成モデルを活用して、質問用にカスタマイズされた候補証拠を生成する。
WIQAとCosmosQAの2つの共通性質問応答データセットについて実験を行った。
その結果、REM-Netの性能を実証し、洗練された証拠が説明可能であることを示した。
関連論文リスト
- Retrieval-Augmented Generation by Evidence Retroactivity in LLMs [19.122314663040726]
Retroactive Retrieval-Augmented Generation(Retroactive Retrieval-Augmented Generation)は、レトロアクティブ推論パラダイムを構築するための新しいフレームワークである。
RetroRAGは証拠を修正・更新し、推論チェーンを正しい方向にリダイレクトする。
経験的評価は、RetroRAGが既存の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2025-01-07T08:57:42Z) - Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Evidence-Enhanced Triplet Generation Framework for Hallucination Alleviation in Generative Question Answering [41.990482015732574]
本稿では,三重項(クエスト,エビデンス,アンスワー)の組合せを予測するための新しいエビデンス強化三重項生成フレームワークであるEATQAを提案する。
推測段階における証拠から知識を抽出するために,分布ギャップを橋渡しする。
我々のフレームワークは,クエリとエビデンスと応答の間の論理的関係を学習し,同時にエビデンス生成とクエリ応答を改善する。
論文 参考訳(メタデータ) (2024-08-27T13:07:07Z) - Multimodal Reranking for Knowledge-Intensive Visual Question Answering [77.24401833951096]
回答生成のための知識候補のランク付け品質を向上させるためのマルチモーダル・リランカを提案する。
OK-VQAとA-OKVQAの実験は、遠隔監視からのマルチモーダルリランカーが一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2024-07-17T02:58:52Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Complex Claim Verification with Evidence Retrieved in the Wild [73.19998942259073]
Webから生の証拠を取り出すことによって,実世界のクレームをチェックするための,最初の完全自動化パイプラインを提示する。
私たちのパイプラインには,クレーム分解,生文書検索,きめ細かい証拠検索,クレーム中心の要約,正確性判定という5つのコンポーネントが含まれています。
論文 参考訳(メタデータ) (2023-05-19T17:49:19Z) - MuGER$^2$: Multi-Granularity Evidence Retrieval and Reasoning for Hybrid
Question Answering [32.850210766905505]
ハイブリッド質問応答(HQA)は、テーブルセルにリンクされたテーブルやパスを含む異種データに対する質問に答えることを目的としている。
マルチグラニュラリティ証拠検索および推論手法である MuGER$2$ を提案する。
HybridQAデータセットの実験結果は、MuGER$2$がHQAのパフォーマンスを大幅に向上させることを示している。
論文 参考訳(メタデータ) (2022-10-19T07:36:03Z) - Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation [22.20733260041759]
我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T17:18:17Z) - Do Answers to Boolean Questions Need Explanations? Yes [11.226970608525596]
既存のTyDi QAとBoolQデータセットのエビデンスを示す新しいアノテーションセットをリリースします。
私たちのアノテーションは、改善されたエビデンスの範囲を抽出するモデルをトレーニングするために使用できます。
論文 参考訳(メタデータ) (2021-12-14T22:40:28Z) - MS-Ranker: Accumulating Evidence from Potentially Correct Candidates for
Answer Selection [59.95429407899612]
そこで我々は,MS-Ranker という,新しい強化学習に基づくマルチステップランキングモデルを提案する。
我々は、候補の潜在的な正しさを明示的に考慮し、ゲーティング機構で証拠を更新する。
我々のモデルは、外部リソースに依存しない既存の手法を著しく上回ります。
論文 参考訳(メタデータ) (2020-10-10T10:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。