論文の概要: CausalFormer: An Interpretable Transformer for Temporal Causal Discovery
- arxiv url: http://arxiv.org/abs/2406.16708v1
- Date: Mon, 24 Jun 2024 15:09:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 14:25:06.429514
- Title: CausalFormer: An Interpretable Transformer for Temporal Causal Discovery
- Title(参考訳): CausalFormer: 時間的因果発見のための解釈可能な変換器
- Authors: Lingbai Kong, Wengen Li, Hanchen Yang, Yichao Zhang, Jihong Guan, Shuigeng Zhou,
- Abstract要約: 本稿では、CausalFormerと呼ばれる、解釈可能なトランスフォーマーに基づく因果探索モデルを提案する。
因果対応変換器は、予測タスクを用いて時系列データの因果表現を学習する。
分解に基づく因果検出器は、訓練された因果変換器のグローバル構造を解釈する。
- 参考スコア(独自算出の注目度): 24.608536564444137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal causal discovery is a crucial task aimed at uncovering the causal relations within time series data. The latest temporal causal discovery methods usually train deep learning models on prediction tasks to uncover the causality between time series. They capture causal relations by analyzing the parameters of some components of the trained models, e.g., attention weights and convolution weights. However, this is an incomplete mapping process from the model parameters to the causality and fails to investigate the other components, e.g., fully connected layers and activation functions, that are also significant for causal discovery. To facilitate the utilization of the whole deep learning models in temporal causal discovery, we proposed an interpretable transformer-based causal discovery model termed CausalFormer, which consists of the causality-aware transformer and the decomposition-based causality detector. The causality-aware transformer learns the causal representation of time series data using a prediction task with the designed multi-kernel causal convolution which aggregates each input time series along the temporal dimension under the temporal priority constraint. Then, the decomposition-based causality detector interprets the global structure of the trained causality-aware transformer with the proposed regression relevance propagation to identify potential causal relations and finally construct the causal graph. Experiments on synthetic, simulated, and real datasets demonstrate the state-of-the-art performance of CausalFormer on discovering temporal causality. Our code is available at https://github.com/lingbai-kong/CausalFormer.
- Abstract(参考訳): 時系列データ中の因果関係を明らかにするため,時間的因果発見は重要な課題である。
最新の時間因果探索法は通常、時系列間の因果関係を明らかにするために予測タスクでディープラーニングモデルを訓練する。
それらは、訓練されたモデルのいくつかのコンポーネント、例えば、注意重みと畳み込み重みのパラメータを分析することで因果関係を捉える。
しかし、これはモデルパラメータから因果関係への不完全なマッピングプロセスであり、因果発見においても重要な他のコンポーネント(例えば、完全に連結された層や活性化関数)を調べるのに失敗する。
時間的因果発見における深層学習モデル全体の活用を容易にするために,因果認識変換器と分解に基づく因果検出器からなる因果発見モデルCausalFormerを提案する。
因果対応変換器は、時間的優先度制約の下で各入力時系列を時間的次元に沿って集約する設計されたマルチカーネル因果畳み込みを用いた予測タスクを用いて時系列データの因果表現を学習する。
そして、分解に基づく因果検出器は、トレーニングされた因果変換器のグローバル構造と回帰関連性伝播を解釈し、潜在的な因果関係を同定し、最終的に因果グラフを構築する。
合成、シミュレーション、および実際のデータセットの実験は、時間的因果性を発見する上でのCausalFormerの最先端のパフォーマンスを示している。
私たちのコードはhttps://github.com/lingbai-kong/CausalFormer.comから入手可能です。
関連論文リスト
- CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series [4.008958683836471]
CAnDOITは、観測データと介入データの両方を用いて因果モデルを再構築する因果発見手法である。
因果解析における介入データの利用は、ロボット工学のような現実世界の応用には不可欠である。
CAnDOITのPython実装も開発され、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-10-03T13:57:08Z) - Causal discovery for time series with constraint-based model and PMIME
measure [0.0]
本稿では,因果探索アルゴリズムと情報理論に基づく測度を組み合わせた時系列データにおける因果関係の発見手法を提案する。
提案手法を複数のシミュレーションデータセット上で評価し,有望な結果を示す。
論文 参考訳(メタデータ) (2023-05-31T09:38:50Z) - TC-GAT: Graph Attention Network for Temporal Causality Discovery [6.974417592057705]
因果関係はしばしば時間的要素と絡み合っており、原因から効果への進行は瞬間的ではなく、時間的次元において収束している。
本稿では,時間的・因果関係を統合したテキストから因果関係を抽出する手法を提案する。
本稿では,時間的関係に重みを割り当てるグラフアテンション機構を採用し,因果知識グラフを利用して隣接行列を決定する新しいモデルTC-GATを提案する。
論文 参考訳(メタデータ) (2023-04-21T02:26:42Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - Causality-Based Multivariate Time Series Anomaly Detection [63.799474860969156]
我々は、因果的観点から異常検出問題を定式化し、多変量データを生成するための通常の因果的メカニズムに従わない事例として、異常を考察する。
次に、まずデータから因果構造を学習し、次に、あるインスタンスが局所因果機構に対して異常であるかどうかを推定する因果検出手法を提案する。
我々は、実世界のAIOpsアプリケーションに関するケーススタディと同様に、シミュレートされたデータセットとパブリックなデータセットの両方を用いて、私たちのアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-30T06:00:13Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Neural Additive Vector Autoregression Models for Causal Discovery in
Time Series [1.160208922584163]
本稿では,非線型関係を発見できる因果構造学習へのニューラルアプローチを提案する。
時系列の時間進化から(付加的な)グランガー因果関係を抽出するディープニューラルネットワークを訓練する。
この手法は、因果探索のための様々なベンチマークデータセットに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-10-19T12:44:25Z) - Amortized Causal Discovery: Learning to Infer Causal Graphs from
Time-Series Data [63.15776078733762]
本稿では,時系列データから因果関係を推定する新しいフレームワークであるAmortized Causal Discoveryを提案する。
本研究では,本手法が変分モデルとして実装され,因果発見性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:59:12Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。