論文の概要: Granger Causality using Neural Networks
- arxiv url: http://arxiv.org/abs/2208.03703v1
- Date: Sun, 7 Aug 2022 12:02:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:32:07.851021
- Title: Granger Causality using Neural Networks
- Title(参考訳): ニューラルネットワークを用いたグレンジャー因果関係
- Authors: Samuel Horvath, Malik Shahid Sultan and Hernando Ombao
- Abstract要約: 基礎となる非線形性を扱うことができるモデルの新しいクラスをいくつか提示する。
罰則を分離することで、遅延と個々の時系列の重要度を直接分離できることを示す。
また,脱カップリングしたペナルティによって,遅延と個々の時系列の重要度を直接分離できることを示す。
- 参考スコア(独自算出の注目度): 8.835231777363399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Granger Causality (GC) test is a famous statistical hypothesis test for
investigating if the past of one time series affects the future of the other.
It helps in answering the question whether one time series is helpful in
forecasting. Standard traditional approaches to Granger causality detection
commonly assume linear dynamics, but such simplification does not hold in many
real-world applications, e.g., neuroscience or genomics that are inherently
non-linear. In such cases, imposing linear models such as Vector Autoregressive
(VAR) models can lead to inconsistent estimation of true Granger Causal
interactions. Machine Learning (ML) can learn the hidden patterns in the
datasets specifically Deep Learning (DL) has shown tremendous promise in
learning the non-linear dynamics of complex systems. Recent work of Tank et al
propose to overcome the issue of linear simplification in VAR models by using
neural networks combined with sparsity-inducing penalties on the learn-able
weights. In this work, we build upon ideas introduced by Tank et al. We propose
several new classes of models that can handle underlying non-linearity.
Firstly, we present the Learned Kernal VAR(LeKVAR) model-an extension of VAR
models that also learns kernel parametrized by a neural net. Secondly, we show
one can directly decouple lags and individual time series importance via
decoupled penalties. This decoupling provides better scaling and allows us to
embed lag selection into RNNs. Lastly, we propose a new training algorithm that
supports mini-batching, and it is compatible with commonly used adaptive
optimizers such as Adam.he proposed techniques are evaluated on several
simulated datasets inspired by real-world applications.We also apply these
methods to the Electro-Encephalogram (EEG) data for an epilepsy patient to
study the evolution of GC before , during and after seizure across the 19 EEG
channels.
- Abstract(参考訳): グランジャー因果関係テスト(granger causality test)は、ある時系列の過去が他方の将来に影響を及ぼすかどうかを調べる有名な統計仮説テストである。
1つの時系列が予測に役立つかどうかという質問に答えるのに役立つ。
グランガー因果検出の標準的なアプローチは一般に線形力学を仮定するが、そのような単純化は本質的に非線形ではない神経科学やゲノム学のような現実世界の多くの応用には当てはまらない。
そのような場合、ベクトル自己回帰(VAR)モデルのような線形モデルを導入することは、真のグランガー因果相互作用の矛盾した推定につながる。
機械学習(ml)はデータセット内の隠れたパターンを学習することができる。特にディープラーニング(dl)は、複雑なシステムの非線形ダイナミクスを学ぶ上で非常に有望である。
Tank et al の最近の研究は、ニューラルネットワークと学習可能なウェイトに対する空間的罰則を組み合わせることで、VARモデルにおける線形単純化の問題を克服することを提案する。
この本では、t tankらによって紹介されたアイデアに基づいています。
基礎となる非線形性を扱うための新しいモデルをいくつか提案する。
まず、ニューラルネットワークによってパラメータ化されたカーネルも学習するLearred Kernal VAR(LeKVAR)モデルをVARモデルの拡張として提示する。
第2に,ラグと個々の時系列を分離したペナルティによって直接分離できることを示す。
この分離によってスケーリングが向上し、ラグ選択をRNNに組み込むことができます。
最後に,この手法を実世界応用に触発された複数のシミュレーションデータセット上で評価し,脳電図(eeg)データに適用し,19個の脳波チャネルを横断する発作の前後におけるgcの進化について検討した。
関連論文リスト
- Cell Graph Transformer for Nuclei Classification [78.47566396839628]
我々は,ノードとエッジを入力トークンとして扱うセルグラフ変換器(CGT)を開発した。
不愉快な特徴は、騒々しい自己注意スコアと劣等な収束につながる可能性がある。
グラフ畳み込みネットワーク(GCN)を利用して特徴抽出器を学習する新しいトポロジ対応事前学習法を提案する。
論文 参考訳(メタデータ) (2024-02-20T12:01:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Go Beyond Multiple Instance Neural Networks: Deep-learning Models based
on Local Pattern Aggregation [0.0]
畳み込みニューラルネットワーク(CNN)は、臨床心電図(ECG)と話者非依存音声の処理においてブレークスルーをもたらした。
本稿では,局所的なパターン集約に基づくディープラーニングモデルを提案する。
LPANetと呼ばれる新しいネットワーク構造には、トリミングと集約操作が組み込まれている。
論文 参考訳(メタデータ) (2022-05-28T13:18:18Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Recurrent neural network-based Internal Model Control of unknown
nonlinear stable systems [0.30458514384586394]
Gated Recurrent Neural Networks (RNN)は、動的システムを学ぶための人気のあるツールとなっている。
本稿では、内部モデル制御(IMC)アーキテクチャの合成にこれらのネットワークをどのように適用できるかについて議論する。
論文 参考訳(メタデータ) (2021-08-10T11:02:25Z) - Multi-Scale Label Relation Learning for Multi-Label Classification Using
1-Dimensional Convolutional Neural Networks [0.5801044612920815]
MSDN(Multi-Scale Label Dependence Relation Networks)を提案する。
MSDNは1次元の畳み込みカーネルを使用してラベルの依存関係をマルチスケールで学習する。
我々は,RNNベースのMLCモデルと比較して,モデルパラメータの少ないモデルで精度を向上できることを実証した。
論文 参考訳(メタデータ) (2021-07-13T09:26:34Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。