論文の概要: Entity-Based Knowledge Conflicts in Question Answering
- arxiv url: http://arxiv.org/abs/2109.05052v1
- Date: Fri, 10 Sep 2021 18:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 23:18:54.467752
- Title: Entity-Based Knowledge Conflicts in Question Answering
- Title(参考訳): 質問応答におけるエンティティベースの知識紛争
- Authors: Shayne Longpre, Kartik Perisetla, Anthony Chen, Nikhil Ramesh, Chris
DuBois, Sameer Singh
- Abstract要約: 我々は、文脈情報が学習情報と矛盾する知識矛盾の問題を定式化する。
本稿では,幻覚を最小化し,分布外一般化を4%~7%改善するパラメトリック知識の過度依存を軽減する手法を提案する。
本研究は, 実践者が読解よりも幻覚の傾向を評価することの重要性を示し, 緩和戦略が情報進化への一般化を促進することを示すものである。
- 参考スコア(独自算出の注目度): 29.973926661540524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge-dependent tasks typically use two sources of knowledge: parametric,
learned at training time, and contextual, given as a passage at inference time.
To understand how models use these sources together, we formalize the problem
of knowledge conflicts, where the contextual information contradicts the
learned information. Analyzing the behaviour of popular models, we measure
their over-reliance on memorized information (the cause of hallucinations), and
uncover important factors that exacerbate this behaviour. Lastly, we propose a
simple method to mitigate over-reliance on parametric knowledge, which
minimizes hallucination, and improves out-of-distribution generalization by
4%-7%. Our findings demonstrate the importance for practitioners to evaluate
model tendency to hallucinate rather than read, and show that our mitigation
strategy encourages generalization to evolving information (i.e.,
time-dependent queries). To encourage these practices, we have released our
framework for generating knowledge conflicts.
- Abstract(参考訳): 知識依存タスクは通常、パラメトリック(parametric)、トレーニング時に学習(learning)、コンテクスト(context)の2つの知識源を使用する。
モデルがこれらの情報源をどのように利用するかを理解するために、文脈情報が学習情報と矛盾する知識矛盾の問題を定式化する。
人気モデルの振る舞いを分析し、記憶された情報(幻覚の原因)の過度信頼度を測定し、この行動を悪化させる重要な要因を明らかにする。
最後に,幻覚を最小限に抑えるパラメトリック知識への過剰依存を緩和し,分布の一般化を4%~7%改善する方法を提案する。
本研究は,実践者が読解よりも幻覚の傾向を評価することの重要性を示し,その緩和戦略が進化する情報(時間依存クエリ)の一般化を促進することを示す。
これらのプラクティスを促進するため、私たちは知識の衝突を引き起こすためのフレームワークをリリースしました。
関連論文リスト
- Mitigating Knowledge Conflicts in Language Model-Driven Question Answering [15.29366851382021]
本研究では,入力源と生成内容との明示的な相関によって幻覚を緩和することができることを論じる。
本稿では,学習時の実体とその記述の相関が推論時のモデル行動を妨げる,幻覚,実体に基づく知識衝突の典型的な例に着目した。
論文 参考訳(メタデータ) (2024-11-18T07:33:10Z) - Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Towards a Rigorous Analysis of Mutual Information in Contrastive
Learning [3.6048794343841766]
相互情報分析の厳密性を高めることを目的とした3つの新しい手法といくつかの関連する定理を紹介する。
具体的には,小バッチサイズ,測度としての相互情報,InfoMinの原理について検討する。
論文 参考訳(メタデータ) (2023-08-30T01:59:42Z) - Leveraging Skill-to-Skill Supervision for Knowledge Tracing [13.753990664747265]
知識追跡は知的学習システムにおいて重要な役割を担っている。
知識追跡モデルの最近の進歩は、問題解決の歴史をよりうまく活用することを可能にしている。
知識を直接組み込む知識トレースアルゴリズムは、限られたデータやコールドスタートの設定において重要である。
論文 参考訳(メタデータ) (2023-06-12T03:23:22Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - The KITMUS Test: Evaluating Knowledge Integration from Multiple Sources
in Natural Language Understanding Systems [87.3207729953778]
我々は、データセット上で最先端のコア参照解決モデルを評価する。
いくつかのモデルは、事前訓練時間と推論時間の両方で観察された知識について、オンザフライで推論するのに苦労している。
それでも、最高のパフォーマンスモデルでさえ、推論時にのみ提示される知識を確実に統合するのは難しいようです。
論文 参考訳(メタデータ) (2022-12-15T23:26:54Z) - Rich Knowledge Sources Bring Complex Knowledge Conflicts: Recalibrating
Models to Reflect Conflicting Evidence [37.18100697469402]
パラメトリックな知識が一つの答えを示し、異なる節が異なる答えを示す知識衝突をシミュレートする。
検索性能は、どのソースモデルが依存しているかに大きな影響を与え、現在のモデルは、主にパフォーマンスの低い知識に依存している。
我々は,複数の矛盾する解答候補が提示された場合,モデルが一つの解答を提示することを妨げる新たなキャリブレーション研究を提案する。
論文 参考訳(メタデータ) (2022-10-25T01:46:00Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。