論文の概要: Getting Sick After Seeing a Doctor? Diagnosing and Mitigating Knowledge
Conflicts in Event Temporal Reasoning
- arxiv url: http://arxiv.org/abs/2305.14970v1
- Date: Wed, 24 May 2023 10:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 17:24:21.036191
- Title: Getting Sick After Seeing a Doctor? Diagnosing and Mitigating Knowledge
Conflicts in Event Temporal Reasoning
- Title(参考訳): 医者に診てから病気になる?
事象時相推論における知識衝突の診断と緩和
- Authors: Tianqing Fang, Zhaowei Wang, Wenxuan Zhou, Hongming Zhang, Yangqiu
Song, Muhao Chen
- Abstract要約: イベント時間的推論は、2つ以上のイベント間の時間的関係を特定することを目的としている。
知識の衝突は、コンテキスト内の事象の実際の時間的関係と、モデルによって学習された事前の知識やバイアスとの間にミスマッチがあるときに起こる。
- 参考スコア(独自算出の注目度): 61.48283695746648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event temporal reasoning aims at identifying the temporal relations between
two or more events. However, knowledge conflicts arise when there is a mismatch
between the actual temporal relations of events in the context and the prior
knowledge or biases learned by the model. We first systematically define
distinct kinds of bias in event temporal reasoning, which include event
relation prior bias, tense bias, narrative bias, and dependency bias, as
indicators to study knowledge conflicts. To mitigate such event-related
knowledge conflict, we introduce a Counterfactual Data Augmentation based
method that can be applied to both Pre-trained Language Models (PLMs) and Large
Language Models (LLMs) either as additional training data or demonstrations for
In-Context Learning. Experiments suggest the importance of mitigating knowledge
conflicts in event temporal reasoning tasks for reducing hallucination and
highlight the potential of counterfactual data augmentation for improving model
performance.
- Abstract(参考訳): イベント時間的推論は、2つ以上のイベント間の時間的関係を特定することを目的としている。
しかし、文脈における事象の実際の時間的関係と、モデルによって学習された事前知識やバイアスとの間にミスマッチがあるときに知識が衝突する。
まず, 事象の時間的推論において, 事象関係の先行バイアス, 緊張バイアス, 物語バイアス, 依存バイアスなど, 異なる種類のバイアスを, 知識衝突を研究する指標として体系的に定義する。
このようなイベント関連知識の衝突を軽減するために,事前学習された言語モデル (plm) と大規模言語モデル (llm) の両方に対して,追加のトレーニングデータやインコンテキスト学習のデモンストレーションとして適用可能な,偽データ拡張に基づく手法を導入する。
実験から,幻覚の低減のための事象時相推論タスクにおける知識衝突の軽減の重要性が示唆され,モデル性能向上のための反事実データ拡張の可能性が強調された。
関連論文リスト
- Counterfactual-Consistency Prompting for Relative Temporal Understanding in Large Language Models [24.586475741345616]
本稿では, 大規模言語モデル(LLM)における時間的不整合の問題に対処し, 新たな対実的プロンプト手法を提案する。
提案手法は, 対実的な質問を生成し, 集合的制約を強制し, モデルの一貫性を高める。
提案手法を複数のデータセット上で評価し、明示的で暗黙的なイベントのイベント順序付けと時間的コモンセンス理解の大幅な改善を実証した。
論文 参考訳(メタデータ) (2025-02-17T04:37:07Z) - Do Large Language Models Show Biases in Causal Learning? [3.0264418764647605]
因果学習は、利用可能な情報に基づいて因果推論を行う能力を開発するための認知過程である。
本研究では,大言語モデル(LLM)が因果錯覚を発生させるかどうかを考察する。
論文 参考訳(メタデータ) (2024-12-13T19:03:48Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
本研究では,大言語モデル(LLM)の因果推論能力について,物語から因果関係を推定する代表的な問題から検討する。
最新の言語モデルでさえ、物語の提示とパラメトリック知識の両方において、信頼できないショートカットに依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - DYNAMICQA: Tracing Internal Knowledge Conflicts in Language Models [42.776896363518844]
本研究では,メモリ内競合がLMのコンテキスト受容能力に及ぼす影響について検討した。
我々は、2つの知識衝突対策と、本質的に矛盾するデータを含む新しいデータセットであるDynamicQAを利用する。
我々は,単一真理値の事実と比較して,LMが動的事実とメモリ内衝突の程度が大きいことを検証した。
論文 参考訳(メタデータ) (2024-07-24T06:06:07Z) - Enhancing Event Causality Identification with Rationale and Structure-Aware Causal Question Answering [30.000134835133522]
事象因果同定(DECI)は、文書中の2つの事象間の因果関係を特定することを目的としている。
近年の研究では、事前訓練された言語モデルを用いて事象因果関係を生成する傾向にある。
本稿では,合理的かつ構造を考慮した因果的質問応答による事象因果同定を強化するためのマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-17T07:41:58Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - EA$^2$E: Improving Consistency with Event Awareness for Document-Level
Argument Extraction [52.43978926985928]
本稿では、トレーニングと推論のための拡張コンテキストを備えたイベント・アウェア・引数抽出(EA$2$E)モデルを紹介する。
WIKIEVENTSとACE2005データセットの実験結果から,EA$2$Eの有効性が示された。
論文 参考訳(メタデータ) (2022-05-30T04:33:51Z) - ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer
for Event-Centric Generation and Classification [74.6318379374801]
本稿では,イベント中心推論のための一般相関対応コンテキスト・イベント変換器(ClarET)の事前学習を提案する。
提案されたClarETは、幅広いイベント中心の推論シナリオに適用できる。
論文 参考訳(メタデータ) (2022-03-04T10:11:15Z) - Temporal Reasoning on Implicit Events from Distant Supervision [91.20159064951487]
本稿では,暗黙的事象の理解度を評価する新しい時間的推論データセットを提案する。
我々は、暗黙の出来事と明示的な出来事の間の時間的関係を予測する際に、最先端のモデルが苦労していることを発見した。
本稿では,大規模テキストからの遠隔監視信号を利用して終末時刻を推定する,ニューロシンボリックな時間的推論モデルSYMTIMEを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。