論文の概要: Causal Explanations Over Time: Articulated Reasoning for Interactive Environments
- arxiv url: http://arxiv.org/abs/2506.03915v1
- Date: Wed, 04 Jun 2025 13:07:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.33721
- Title: Causal Explanations Over Time: Articulated Reasoning for Interactive Environments
- Title(参考訳): 時間による因果説明:対話型環境のためのアーティキュレートされた推論
- Authors: Sebastian Rödling, Matej Zečević, Devendra Singh Dhami, Kristian Kersting,
- Abstract要約: 構造因果説明(Structure Causal Explanations, SCE)は、自然言語で説明を自動生成するために用いられる。
我々は、SCEを(再帰的な)説明木の定式化に一般化し、理由間の時間的相互作用を捉える。
合成時系列データと2Dグリッドゲームに対するより一般的なSCEアルゴリズムの利点を示す。
- 参考スコア(独自算出の注目度): 20.642449858307582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural Causal Explanations (SCEs) can be used to automatically generate explanations in natural language to questions about given data that are grounded in a (possibly learned) causal model. Unfortunately they work for small data only. In turn they are not attractive to offer reasons for events, e.g., tracking causal changes over multiple time steps, or a behavioral component that involves feedback loops through actions of an agent. To this end, we generalize SCEs to a (recursive) formulation of explanation trees to capture the temporal interactions between reasons. We show the benefits of this more general SCE algorithm on synthetic time-series data and a 2D grid game, and further compare it to the base SCE and other existing methods for causal explanations.
- Abstract(参考訳): 構造因果説明 (Structure Causal Explanations, SCE) は、自然言語による説明を自動的に生成し、(おそらく学習された)因果モデルに基づく与えられたデータに関する質問を行うために用いられる。
残念ながら、それらは小さなデータのみで動作する。
結果として、イベント、例えば、複数の時間ステップにおける因果変化の追跡、あるいはエージェントのアクションを通じてフィードバックループを含む振る舞いコンポーネントの理由を提供するのは魅力的ではない。
この目的のために、我々はSCEを説明木の(再帰的な)定式化に一般化し、理由間の時間的相互作用を捉える。
合成時系列データと2次元グリッドゲームに対するより一般的なSCEアルゴリズムの利点を示し、さらに因果説明のためのベースSCEや他の既存手法と比較する。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - CausalFormer: An Interpretable Transformer for Temporal Causal Discovery [24.608536564444137]
本稿では、CausalFormerと呼ばれる、解釈可能なトランスフォーマーに基づく因果探索モデルを提案する。
因果対応変換器は、予測タスクを用いて時系列データの因果表現を学習する。
分解に基づく因果検出器は、訓練された因果変換器のグローバル構造を解釈する。
論文 参考訳(メタデータ) (2024-06-24T15:09:29Z) - CRAB: Assessing the Strength of Causal Relationships Between Real-world
Events [20.74723427835013]
実世界の物語における出来事の因果的理解を評価するための新しい因果推論評価ベンチマークであるCRABを提案する。
いくつかの大規模言語モデルの性能を計測し、ほとんどのシステムがそのタスクにおいて性能が劣っていることを示す。
古典的因果関係の原理により、CRABにおける事象群の因果構造を解析し、複雑な因果構造からイベントが導出される場合、モデルが因果推論に悪影響を及ぼすことを見出した。
論文 参考訳(メタデータ) (2023-11-07T19:00:44Z) - CLEVRER-Humans: Describing Physical and Causal Events the Human Way [51.68416979907198]
CLEVRER-Humansベンチマークは,人間ラベルを用いた物理的事象の因果判定のためのビデオデータセットである。
まず、ビデオ内のイベントを新たに表現するための、新しい反復的なイベントクローゼタスク、すなわち、Causal Event Graphs (CEGs) と呼ぶもので、第2に、ニューラルネットワーク生成モデルに基づくデータ拡張技術である。
論文 参考訳(メタデータ) (2023-10-05T16:09:48Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - On the Relationship Between Explanation and Prediction: A Causal View [32.559697523249035]
説明(E)と予測(Y)の関係について検討する。
この結果は、E と Y の関係は理想とは程遠いことを示唆している。
私たちの研究は、EとYの関係を定量的に測定する第一歩として有望です。
論文 参考訳(メタデータ) (2022-12-13T22:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。