論文の概要: Granger Causality using Neural Networks
- arxiv url: http://arxiv.org/abs/2208.03703v2
- Date: Wed, 7 Aug 2024 09:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 18:42:56.219930
- Title: Granger Causality using Neural Networks
- Title(参考訳): ニューラルネットワークを用いたグランガー因果関係
- Authors: Malik Shahid Sultan, Samuel Horvath, Hernando Ombao,
- Abstract要約: 本稿では,非線型性を計算的に効率的に処理できる新しいモデルのクラスを提案する。
罰則を分離することで、遅延と個々の時系列の重要度を直接分離できることを示す。
GC推定のプロセス中にラグ順を選択したいので、これは重要です。
- 参考スコア(独自算出の注目度): 7.62566998854384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dependence between nodes in a network is an important concept that pervades many areas including finance, politics, sociology, genomics and the brain sciences. One way to characterize dependence between components of a multivariate time series data is via Granger Causality (GC). Standard traditional approaches to GC estimation / inference commonly assume linear dynamics, however such simplification does not hold in many real-world applications where signals are inherently non-linear. In such cases, imposing linear models such as vector autoregressive (VAR) models can lead to mis-characterization of true Granger Causal interactions. To overcome this limitation, Tank et al (IEEE Transactions on Pattern Analysis and Machine Learning, 2022) proposed a solution that uses neural networks with sparse regularization penalties. The regularization encourages learnable weights to be sparse, which enables inference on GC. This paper overcomes the limitations of current methods by leveraging advances in machine learning and deep learning which have been demonstrated to learn hidden patterns in the data. We propose novel classes of models that can handle underlying non-linearity in a computationally efficient manner, simultaneously providing GC and lag order selection. Firstly, we present the Learned Kernel VAR (LeKVAR) model that learns kernel parameterized by a shared neural net followed by penalization on learnable weights to discover GC structure. Secondly, we show one can directly decouple lags and individual time series importance via decoupled penalties. This is important as we want to select the lag order during the process of GC estimation. This decoupling acts as a filtering and can be extended to any DL model including Multi-Layer Perceptrons (MLP), Recurrent Neural Networks (RNN), Long Short Term Memory Networks (LSTM), Transformers etc, for simultaneous GC estimation and lag selection.
- Abstract(参考訳): ネットワーク内のノード間の依存は、金融、政治、社会学、ゲノム学、脳科学など多くの分野に浸透する重要な概念である。
多変量時系列データのコンポーネント間の依存を特徴付ける方法の1つは、Granger Causality (GC) である。
GC推定/推論の標準的なアプローチは一般に線形力学を前提としているが、信号が本質的に非線形である実世界の多くのアプリケーションではそのような単純化は成り立たない。
そのような場合、ベクトル自己回帰(VAR)モデルのような線形モデルを与えると、真のグランガー因果相互作用の誤特徴づけにつながる可能性がある。
この制限を克服するため、Tant et al (IEEE Transactions on Pattern Analysis and Machine Learning, 2022) は、少ない正規化のペナルティを持つニューラルネットワークを使用するソリューションを提案した。
正規化は学習可能なウェイトをスパースにし、GCの推論を可能にする。
本稿では、データに隠されたパターンを学習するために実証された機械学習とディープラーニングの進歩を活用することで、現在の手法の限界を克服する。
本稿では,GCとラグ順序の選択を同時に行うことによって,基礎となる非線形性を計算的に効率的に処理できる新しいモデルのクラスを提案する。
まず、共有ニューラルネットワークでパラメータ化されたカーネルを学習し、学習可能な重みに対するペナル化を行い、GC構造を発見するLearted Kernel VAR(LeKVAR)モデルを提案する。
第2に,脱カップリングしたペナルティによって,遅延と個々の時系列の重要度を直接分離できることを示す。
GC推定のプロセス中にラグ順を選択したいので、これは重要です。
この分離はフィルタリングとして機能し、マルチ層パーセプトロン(MLP)、リカレントニューラルネットワーク(RNN)、Long Short Term Memory Networks(LSTM)、Transformerなどを含む任意のDLモデルに拡張して、GC推定とラグ選択を同時に行うことができる。
関連論文リスト
- Learning from Linear Algebra: A Graph Neural Network Approach to Preconditioner Design for Conjugate Gradient Solvers [42.69799418639716]
深層学習モデルは、共役勾配 (CG) 法のような線形解法を反復する際の残差を予条件として用いることができる。
ニューラルネットワークモデルは、この設定でうまく近似するために、膨大な数のパラメータを必要とする。
本研究では,線形代数学から確立したプレコンディショナーを思い出し,GNNの学習の出発点として利用する。
論文 参考訳(メタデータ) (2024-05-24T13:44:30Z) - Cell Graph Transformer for Nuclei Classification [78.47566396839628]
我々は,ノードとエッジを入力トークンとして扱うセルグラフ変換器(CGT)を開発した。
不愉快な特徴は、騒々しい自己注意スコアと劣等な収束につながる可能性がある。
グラフ畳み込みネットワーク(GCN)を利用して特徴抽出器を学習する新しいトポロジ対応事前学習法を提案する。
論文 参考訳(メタデータ) (2024-02-20T12:01:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Recurrent neural network-based Internal Model Control of unknown
nonlinear stable systems [0.30458514384586394]
Gated Recurrent Neural Networks (RNN)は、動的システムを学ぶための人気のあるツールとなっている。
本稿では、内部モデル制御(IMC)アーキテクチャの合成にこれらのネットワークをどのように適用できるかについて議論する。
論文 参考訳(メタデータ) (2021-08-10T11:02:25Z) - Multi-Scale Label Relation Learning for Multi-Label Classification Using
1-Dimensional Convolutional Neural Networks [0.5801044612920815]
MSDN(Multi-Scale Label Dependence Relation Networks)を提案する。
MSDNは1次元の畳み込みカーネルを使用してラベルの依存関係をマルチスケールで学習する。
我々は,RNNベースのMLCモデルと比較して,モデルパラメータの少ないモデルで精度を向上できることを実証した。
論文 参考訳(メタデータ) (2021-07-13T09:26:34Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。