論文の概要: REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement
- arxiv url: http://arxiv.org/abs/2012.13185v3
- Date: Thu, 25 Mar 2021 12:53:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:26:26.113922
- Title: REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement
- Title(参考訳): REM-Net:Recursive Erasure Memory Network for Commonsense Evidence Refinement
- Authors: Yinya Huang, Meng Fang, Xunlin Zhan, Qingxing Cao, Xiaodan Liang,
Liang Lin
- Abstract要約: REM-Netは、答えを説明できない低品質な証拠を消去することで証拠を洗練するためのモジュールを備えている。
既存の知識ベースから証拠を取得する代わりに、REM-Netは事前訓練された生成モデルを利用して、質問用にカスタマイズされた候補証拠を生成する。
結果はREM-Netの性能を示し、洗練された証拠が説明可能であることを示します。
- 参考スコア(独自算出の注目度): 130.8875535449478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When answering a question, people often draw upon their rich world knowledge
in addition to the particular context. While recent works retrieve supporting
facts/evidence from commonsense knowledge bases to supply additional
information to each question, there is still ample opportunity to advance it on
the quality of the evidence. It is crucial since the quality of the evidence is
the key to answering commonsense questions, and even determines the upper bound
on the QA systems performance. In this paper, we propose a recursive erasure
memory network (REM-Net) to cope with the quality improvement of evidence. To
address this, REM-Net is equipped with a module to refine the evidence by
recursively erasing the low-quality evidence that does not explain the question
answering. Besides, instead of retrieving evidence from existing knowledge
bases, REM-Net leverages a pre-trained generative model to generate candidate
evidence customized for the question. We conduct experiments on two commonsense
question answering datasets, WIQA and CosmosQA. The results demonstrate the
performance of REM-Net and show that the refined evidence is explainable.
- Abstract(参考訳): 質問に答えるとき、人々は特定の文脈に加えて、自分の豊かな世界知識を引き出すことが多い。
近年の研究では、共通知識ベースから支援事実・証拠を回収し、各質問に追加情報を提供する一方で、証拠の質を向上する機会は十分にある。
証拠の質は常識的な質問に答える鍵であり、qaシステムのパフォーマンスの上限も決定するので、これは非常に重要です。
本稿では,エビデンスの品質向上に対応するための再帰的消去メモリネットワーク(rem-net)を提案する。
これを解決するため、REM-Netは、質問に答えない低品質な証拠を再帰的に消去することで証拠を洗練するためのモジュールを備えている。
さらに、REM-Netは既存の知識ベースから証拠を取得する代わりに、事前訓練された生成モデルを活用して、質問用にカスタマイズされた候補証拠を生成する。
WIQAとCosmosQAの2つの共通性質問応答データセットについて実験を行った。
その結果、REM-Netの性能を実証し、洗練された証拠が説明可能であることを示した。
関連論文リスト
- Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Complex Claim Verification with Evidence Retrieved in the Wild [55.30539850883163]
Webから生の証拠を取り出すことによって,実世界のクレームをチェックするための,最初の完全自動化パイプラインを提示する。
私たちのパイプラインには,クレーム分解,生文書検索,きめ細かい証拠検索,クレーム中心の要約,正確性判定という5つのコンポーネントが含まれています。
論文 参考訳(メタデータ) (2023-05-19T17:49:19Z) - Entailer: Answering Questions with Faithful and Truthful Chains of
Reasoning [26.715242799194908]
質問応答システムは、体系的な推論の連鎖を通して、その答えが自身の内的信念によってどのように示唆されるかを示す。
我々のアプローチは、トレーニングされた後方チェーンモデルで、回答仮説を含む一連の前提を生成することができ、モデル自体がそれらの前提を信じることを確認する検証器を組み合わせることです。
私たちの知る限りでは、これは多段階連鎖を生成できる最初のシステムであり、それは忠実であり(その答えは推論から従う)、真実である(連鎖はシステムの内部の信念を反映している)。
論文 参考訳(メタデータ) (2022-10-21T19:51:56Z) - MuGER$^2$: Multi-Granularity Evidence Retrieval and Reasoning for Hybrid
Question Answering [32.850210766905505]
ハイブリッド質問応答(HQA)は、テーブルセルにリンクされたテーブルやパスを含む異種データに対する質問に答えることを目的としている。
マルチグラニュラリティ証拠検索および推論手法である MuGER$2$ を提案する。
HybridQAデータセットの実験結果は、MuGER$2$がHQAのパフォーマンスを大幅に向上させることを示している。
論文 参考訳(メタデータ) (2022-10-19T07:36:03Z) - ReasonChainQA: Text-based Complex Question Answering with Explainable
Evidence Chains [15.837457557803507]
説明的および明示的なエビデンス連鎖を有するベンチマーク textbfReasonChainQA を提案する。
ReasonChainQAは、回答生成とエビデンス連鎖抽出という2つのサブタスクから構成される。
教師付きおよび教師なし検索に関する追加実験は、ReasonChainQAの重要性を十分に示している。
論文 参考訳(メタデータ) (2022-10-17T06:07:39Z) - Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation [22.20733260041759]
我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T17:18:17Z) - Do Answers to Boolean Questions Need Explanations? Yes [11.226970608525596]
既存のTyDi QAとBoolQデータセットのエビデンスを示す新しいアノテーションセットをリリースします。
私たちのアノテーションは、改善されたエビデンスの範囲を抽出するモデルをトレーニングするために使用できます。
論文 参考訳(メタデータ) (2021-12-14T22:40:28Z) - MS-Ranker: Accumulating Evidence from Potentially Correct Candidates for
Answer Selection [59.95429407899612]
そこで我々は,MS-Ranker という,新しい強化学習に基づくマルチステップランキングモデルを提案する。
我々は、候補の潜在的な正しさを明示的に考慮し、ゲーティング機構で証拠を更新する。
我々のモデルは、外部リソースに依存しない既存の手法を著しく上回ります。
論文 参考訳(メタデータ) (2020-10-10T10:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。