論文の概要: DisentQA: Disentangling Parametric and Contextual Knowledge with
Counterfactual Question Answering
- arxiv url: http://arxiv.org/abs/2211.05655v1
- Date: Thu, 10 Nov 2022 15:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:13:26.942243
- Title: DisentQA: Disentangling Parametric and Contextual Knowledge with
Counterfactual Question Answering
- Title(参考訳): DisentQA:疑似質問応答によるパラメトリックと文脈知識の両立
- Authors: Ella Neeman, Roee Aharoni, Or Honovich, Leshem Choshen, Idan Szpektor,
Omri Abend
- Abstract要約: 質問応答モデルは通常、推論時間中に「知識」の2つのソースにアクセスする。
答えが与えられた非パラメトリック知識に由来するかどうかは不明である。
本稿では,2つの知識源を解き放つために,QAモデルを訓練する新たなパラダイムを提案する。
- 参考スコア(独自算出の注目度): 34.70206857546496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question answering models commonly have access to two sources of "knowledge"
during inference time: (1) parametric knowledge - the factual knowledge encoded
in the model weights, and (2) contextual knowledge - external knowledge (e.g.,
a Wikipedia passage) given to the model to generate a grounded answer. Having
these two sources of knowledge entangled together is a core issue for
generative QA models as it is unclear whether the answer stems from the given
non-parametric knowledge or not. This unclarity has implications on issues of
trust, interpretability and factuality. In this work, we propose a new paradigm
in which QA models are trained to disentangle the two sources of knowledge.
Using counterfactual data augmentation, we introduce a model that predicts two
answers for a given question: one based on given contextual knowledge and one
based on parametric knowledge. Our experiments on the Natural Questions dataset
show that this approach improves the performance of QA models by making them
more robust to knowledge conflicts between the two knowledge sources, while
generating useful disentangled answers.
- Abstract(参考訳): 質問応答モデルでは,(1)パラメトリック知識 (parametric knowledge) - モデル重みにエンコードされた事実知識 (factual knowledge) ,(2) 文脈知識 (contextual knowledge) - 外部知識 (e.g. wikipedia passage) の2つの「知識 (knowledge)」 へのアクセスが一般的である。
これら2つの知識が絡み合っていることは、生成的QAモデルにとって重要な問題であり、その答えが与えられた非パラメトリックな知識に由来するかどうかは不明である。
この曖昧さは、信頼、解釈可能性、事実性の問題に影響を及ぼす。
本研究では,2つの知識源を乱すためにQAモデルを訓練する新たなパラダイムを提案する。
本研究では,与えられた質問に対する2つの回答を予測するモデルを提案する。1つは与えられた文脈知識に基づくもので,もう1つはパラメトリック知識に基づくものである。
本研究では,2つの知識源間の知識衝突をより堅牢にし,有用な解答を生成することにより,QAモデルの性能を向上させることを示す。
関連論文リスト
- Knowledge Condensation and Reasoning for Knowledge-based VQA [20.808840633377343]
近年の研究では、外部知識ベースから知識パスを取得し、それを使って質問に答えている。
本稿では,知識凝縮モデルと知識推論モデルという2つの相乗的モデルを提案する。
本手法は知識に基づくVQAデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-15T06:06:06Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - The KITMUS Test: Evaluating Knowledge Integration from Multiple Sources
in Natural Language Understanding Systems [87.3207729953778]
我々は、データセット上で最先端のコア参照解決モデルを評価する。
いくつかのモデルは、事前訓練時間と推論時間の両方で観察された知識について、オンザフライで推論するのに苦労している。
それでも、最高のパフォーマンスモデルでさえ、推論時にのみ提示される知識を確実に統合するのは難しいようです。
論文 参考訳(メタデータ) (2022-12-15T23:26:54Z) - Rich Knowledge Sources Bring Complex Knowledge Conflicts: Recalibrating
Models to Reflect Conflicting Evidence [37.18100697469402]
パラメトリックな知識が一つの答えを示し、異なる節が異なる答えを示す知識衝突をシミュレートする。
検索性能は、どのソースモデルが依存しているかに大きな影響を与え、現在のモデルは、主にパフォーマンスの低い知識に依存している。
我々は,複数の矛盾する解答候補が提示された場合,モデルが一つの解答を提示することを妨げる新たなキャリブレーション研究を提案する。
論文 参考訳(メタデータ) (2022-10-25T01:46:00Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。