論文の概要: On the ability of Deep Neural Networks to Learn Granger Causality in Multi-Variate Time Series Data
- arxiv url: http://arxiv.org/abs/2506.20347v1
- Date: Wed, 25 Jun 2025 11:57:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.722334
- Title: On the ability of Deep Neural Networks to Learn Granger Causality in Multi-Variate Time Series Data
- Title(参考訳): 多変量時系列データにおける深部ニューラルネットワークによる粒界因果性学習能力について
- Authors: Malik Shahid Sultan, Hernando Ombao,
- Abstract要約: 本稿では、正規化されたモデルが、損失関数に項を明示的に加えることなく、データから真のGC構造を学習できることを示す。
また、入力層ドロップアウトがニューラルネットワークに与える影響を比較して、データからグラガー因果関係を学習する。
- 参考スコア(独自算出の注目度): 8.33049663808736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Granger Causality (GC) offers an elegant statistical framework to study the association between multivariate time series data. Linear Vector Autoregressive models (VAR) though have nice interpretation properties but have limited practical application due to underlying assumptions on the kind of associations that can be captured by these models. Numerous attempts have already been made in the literature that exploit the functional approximation power of Deep Neural Networks (DNNs) for the task of GC estimation. These methods however treat GC as a variable selection problem. We present a novel paradigm for approaching GC. We present this idea that GC is essentially linked with prediction and if a deep learning model is used to model the time series collectively or jointly, a well regularized model may learn the true granger causal structure from the data, given that there is enough training data. We propose to uncover the learned GC structure by comparing the model uncertainty or distribution of the residuals when the past of everything is used as compared to the one where a specific time series component is dropped from the model. We also compare the effect of input layer dropout on the ability of a neural network to learn granger causality from the data. We show that a well regularized model infact can learn the true GC structure from the data without explicitly adding terms in the loss function that guide the model to select variables or perform sparse regression.
- Abstract(参考訳): Granger Causality (GC)は、多変量時系列データの関連を研究するためのエレガントな統計フレームワークを提供する。
線形ベクトル自己回帰モデル(VAR)は、優れた解釈特性を持つが、これらのモデルによって捉えることのできる関連性に関する基礎的な仮定のため、実用的な応用は限られている。
GC推定のタスクにディープニューラルネットワーク(DNN)の機能近似力を利用する文献では、すでに多くの試みがなされている。
しかし、これらの手法はGCを変数選択問題として扱う。
本稿では,GCにアプローチするための新しいパラダイムを提案する。
本稿では,GCが本質的に予測と結びついており,もし深層学習モデルを用いて時系列を一括または共同でモデル化するのであれば,十分なトレーニングデータが存在することを前提として,正規化されたモデルがデータから真の粒界因果構造を学習することができることを示す。
本稿では, モデルから特定の時系列成分を落として過去のデータを使用する場合と比較して, モデルの不確かさや残差の分布を比較して, 学習したGC構造を明らかにすることを提案する。
また、入力層ドロップアウトがニューラルネットワークに与える影響を比較して、データからグラガー因果関係を学習する。
モデルが変数の選択やスパースレグレッションの実行を誘導する損失関数の項を明示的に追加することなく、正規化されたモデルがデータから真のGC構造を学習できることを示します。
関連論文リスト
- Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Granger Causality using Neural Networks [7.62566998854384]
本稿では,非線型性を計算的に効率的に処理できる新しいモデルのクラスを提案する。
罰則を分離することで、遅延と個々の時系列の重要度を直接分離できることを示す。
GC推定のプロセス中にラグ順を選択したいので、これは重要です。
論文 参考訳(メタデータ) (2022-08-07T12:02:48Z) - Deep Generative model with Hierarchical Latent Factors for Time Series
Anomaly Detection [40.21502451136054]
本研究は、時系列異常検出のための新しい生成モデルであるDGHLを提示する。
トップダウンの畳み込みネットワークは、新しい階層的な潜在空間を時系列ウィンドウにマッピングし、時間ダイナミクスを利用して情報を効率的にエンコードする。
提案手法は,4つのベンチマーク・データセットにおいて,現在の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-02-15T17:19:44Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Deep Time Series Models for Scarce Data [8.673181404172963]
時系列データは多くの領域で爆発的な速度で成長し、時系列モデリング研究の急増を刺激している。
データ希少性は、膨大なデータ分析の問題で発生する普遍的な問題です。
論文 参考訳(メタデータ) (2021-03-16T22:16:54Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting [12.0855096102517]
金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
論文 参考訳(メタデータ) (2020-02-18T15:24:33Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。