論文の概要: Causal Graph based Event Reasoning using Semantic Relation Experts
- arxiv url: http://arxiv.org/abs/2506.06910v1
- Date: Sat, 07 Jun 2025 20:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.063576
- Title: Causal Graph based Event Reasoning using Semantic Relation Experts
- Title(参考訳): 意味的関係エキスパートを用いた因果グラフに基づくイベント推論
- Authors: Mahnaz Koupaee, Xueying Bai, Mudan Chen, Greg Durrett, Nathanael Chambers, Niranjan Balasubramanian,
- Abstract要約: 本稿では,大規模言語モデル(LLM)が推論中の因果関係を明確に表現するための並列メカニズムとして,因果事象グラフの生成について検討する。
LLMを用いて特定の意味関係に着目した専門家をシミュレートする因果グラフ生成のための協調的アプローチを提案する。
また、説明にイベントの因果連鎖を必要とする、説明可能なイベント予測タスクも導入する。
- 参考スコア(独自算出の注目度): 56.328115024900725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how events in a scenario causally connect with each other is important for effectively modeling and reasoning about events. But event reasoning remains a difficult challenge, and despite recent advances, Large Language Models (LLMs) still struggle to accurately identify causal connections between events. This struggle leads to poor performance on deeper reasoning tasks like event forecasting and timeline understanding. To address this challenge, we investigate the generation of causal event graphs (e.g., A enables B) as a parallel mechanism to help LLMs explicitly represent causality during inference. This paper evaluates both how to generate correct graphs as well as how graphs can assist reasoning. We propose a collaborative approach to causal graph generation where we use LLMs to simulate experts that focus on specific semantic relations. The experts engage in multiple rounds of discussions which are then consolidated by a final expert. Then, to demonstrate the utility of causal graphs, we use them on multiple downstream applications, and also introduce a new explainable event prediction task that requires a causal chain of events in the explanation. These explanations are more informative and coherent than baseline generations. Finally, our overall approach not finetuned on any downstream task, achieves competitive results with state-of-the-art models on both forecasting and next event prediction tasks.
- Abstract(参考訳): シナリオ内のイベントが相互に因果関係を持つかを理解することは、イベントを効果的にモデル化し、推論するために重要である。
しかし、イベント推論は依然として困難な課題であり、最近の進歩にもかかわらず、Large Language Models (LLMs) はイベント間の因果関係を正確に識別するのに依然として苦労している。
この苦労は、イベント予測やタイムライン理解といった、より深い推論タスクのパフォーマンス低下につながります。
この課題に対処するために、LLMが推論中に因果関係を明確に表現するのに役立つ並列メカニズムとして、因果事象グラフ(例えば、A possible B)の生成について検討する。
本稿では、正しいグラフを生成する方法と、グラフが推論を支援する方法の両方を評価する。
LLMを用いて特定の意味関係に着目した専門家をシミュレートする因果グラフ生成のための協調的アプローチを提案する。
専門家は複数の議論を行い、最終専門家によって統合される。
次に、因果グラフの有用性を実証するために、複数の下流アプリケーションでそれを使用し、説明に因果連鎖を必要とする新しい説明可能な事象予測タスクを導入する。
これらの説明は、ベースライン世代よりも情報的で一貫性のあるものである。
最後に、我々の全体的なアプローチはダウンストリームタスクでは微調整されず、予測タスクと次のイベント予測タスクの両方に関する最先端モデルと競合する結果が得られる。
関連論文リスト
- Reasoning with Graphs: Structuring Implicit Knowledge to Enhance LLMs Reasoning [73.2950349728376]
大規模言語モデル(LLM)は、幅広いタスクで顕著な成功を収めている。
しかし、彼らは情報片間の関係を理解し、推論する必要があるタスクの推論において、依然として課題に直面している。
この課題は、論理的推論やマルチホップ質問応答など、多段階プロセスに関わるタスクにおいて特に顕著である。
本稿では、まず文脈から明示的なグラフを構築することにより、グラフを用いた推論(RwG)を提案する。
論文 参考訳(メタデータ) (2025-01-14T05:18:20Z) - MECD+: Unlocking Event-Level Causal Graph Discovery for Video Reasoning [16.209265930309854]
新しいタスクとデータセットであるMulti-Event Causal Discovery (MECD)を導入する。
時系列的に長いビデオに分散したイベント間の因果関係を明らかにすることを目的としている。
我々は,効率的なマスクベースの事象予測モデルを用いて,Granger Causality法にインスパイアされた新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2025-01-13T11:28:49Z) - Logic and Commonsense-Guided Temporal Knowledge Graph Completion [9.868206060374991]
時間的知識グラフ(TKG)は、時間を含むデータから派生した事象を記憶する。
本稿では,時系列やイベントの因果性を含む時間依存表現を協調的に学習するためのLCGE(Logic and Commonsense-Guided Embedding Model)を提案する。
論文 参考訳(メタデータ) (2022-11-30T10:06:55Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - CEP3: Community Event Prediction with Neural Point Process on Graph [59.434777403325604]
グラフニューラルネットワークとマーク付き時間点プロセス(MTPP)を組み合わせた新しいモデルを提案する。
実験では,モデルの精度と訓練効率の両面から,モデルの優れた性能を実証した。
論文 参考訳(メタデータ) (2022-05-21T15:30:25Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。