論文の概要: TNPAR: Topological Neural Poisson Auto-Regressive Model for Learning
Granger Causal Structure from Event Sequences
- arxiv url: http://arxiv.org/abs/2306.14114v2
- Date: Tue, 12 Mar 2024 12:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:05:07.848511
- Title: TNPAR: Topological Neural Poisson Auto-Regressive Model for Learning
Granger Causal Structure from Event Sequences
- Title(参考訳): tnpar:イベントシーケンスからグレンジャー因果構造を学ぶためのトポロジカルニューラルポアソン自己回帰モデル
- Authors: Yuequn Liu, Ruichu Cai, Wei Chen, Jie Qiao, Yuguang Yan, Zijian Li,
Keli Zhang, Zhifeng Hao
- Abstract要約: イベントシーケンスからグランガー因果関係を学ぶことは、さまざまなアプリケーションにまたがって難しいが必須の課題である。
トポロジカル・ニューラル・ポアソン自己回帰モデルと2つのプロセスの融合を考案する。
シミュレーションおよび実世界のデータを用いた実験により,本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 27.289511320823895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning Granger causality from event sequences is a challenging but
essential task across various applications. Most existing methods rely on the
assumption that event sequences are independent and identically distributed
(i.i.d.). However, this i.i.d. assumption is often violated due to the inherent
dependencies among the event sequences. Fortunately, in practice, we find these
dependencies can be modeled by a topological network, suggesting a potential
solution to the non-i.i.d. problem by introducing the prior topological network
into Granger causal discovery. This observation prompts us to tackle two
ensuing challenges: 1) how to model the event sequences while incorporating
both the prior topological network and the latent Granger causal structure, and
2) how to learn the Granger causal structure. To this end, we devise a unified
topological neural Poisson auto-regressive model with two processes. In the
generation process, we employ a variant of the neural Poisson process to model
the event sequences, considering influences from both the topological network
and the Granger causal structure. In the inference process, we formulate an
amortized inference algorithm to infer the latent Granger causal structure. We
encapsulate these two processes within a unified likelihood function, providing
an end-to-end framework for this task. Experiments on simulated and real-world
data demonstrate the effectiveness of our approach.
- Abstract(参考訳): イベントシーケンスからグランジャー因果関係を学ぶことは、さまざまなアプリケーションで難しいが不可欠なタスクである。
既存のメソッドのほとんどは、イベントシーケンスが独立かつ同一分散である(i.i.d.)という仮定に依存している。
しかし、この i.d. 仮定は、イベントシーケンス間の固有の依存関係のためにしばしば違反される。
幸いなことに、実際にはこれらの依存関係はトポロジカルネットワークによってモデル化することができ、Granger因果発見に先立つトポロジカルネットワークを導入することで、非i.d.問題に対する潜在的な解決策を示唆している。
この観察は、次の2つの課題に取り組むよう促す。
1)事前トポロジカルネットワークと潜在グランジャー因果構造の両方を取り込んでイベントシーケンスをモデル化する方法、及び
2)グランジャー因果構造をどのように学ぶか。
この目的のために、2つのプロセスからなる統合トポロジカルニューラル・ポアソン自己回帰モデルを開発した。
生成過程において,神経ポアソン過程の変種を用いて,位相ネットワークとグランジャー因果構造の両方の影響を考慮した事象列のモデル化を行う。
推論過程において, 補正された推論アルゴリズムを定式化し, 潜伏したグランガー因果構造を推定する。
我々はこれら2つのプロセスを統一された可能性関数にカプセル化し、このタスクのエンドツーエンドフレームワークを提供する。
シミュレーションおよび実世界のデータを用いた実験により,本手法の有効性が示された。
関連論文リスト
- Learning Granger Causality from Instance-wise Self-attentive Hawkes
Processes [24.956802640469554]
インスタンスワイド・セルフアテンティブ・ホークス・プロセス(ISAHP)は、インスタンスレベルでGranger因果関係を直接推測できる新しいディープラーニングフレームワークである。
ISAHPは、古典的なモデルでは扱えない複雑なインスタンスレベルの因果構造を発見することができる。
論文 参考訳(メタデータ) (2024-02-06T05:46:51Z) - DynGFN: Towards Bayesian Inference of Gene Regulatory Networks with
GFlowNets [81.75973217676986]
遺伝子調節ネットワーク(GRN)は、遺伝子発現と細胞機能を制御する遺伝子とその産物間の相互作用を記述する。
既存の方法は、チャレンジ(1)、ダイナミックスから循環構造を識別すること、あるいはチャレンジ(2)、DAGよりも複雑なベイズ後部を学習することに焦点を当てるが、両方ではない。
本稿では、RNAベロシティ技術を用いて遺伝子発現の「速度」を推定できるという事実を活用し、両方の課題に対処するアプローチを開発する。
論文 参考訳(メタデータ) (2023-02-08T16:36:40Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Deep Recurrent Modelling of Granger Causality with Latent Confounding [0.0]
本稿では,非線形なGranger因果関係をモデル化するためのディープラーニングに基づくアプローチを提案する。
我々は,非線形時系列におけるモデル性能を実演し,その要因と効果を異なる時間ラグで示す。
論文 参考訳(メタデータ) (2022-02-23T03:26:22Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - THP: Topological Hawkes Processes for Learning Granger Causality on
Event Sequences [31.895008425796792]
本稿では,トポロジカル・ホークス・プロセス(THP)におけるグレンジャー因果学習手法を提案する。
提案手法は,THPのグラフ畳み込みに基づく可能性関数と,その可能性関数の期待最大化によるスパース最適化方式を特徴とする。
論文 参考訳(メタデータ) (2021-05-23T08:33:46Z) - Hawkes Processes on Graphons [85.6759041284472]
我々は、グランガー因果グラフに関連するホークス過程とその変種について研究する。
対応するホークスプロセスを生成し、イベントシーケンスをシミュレートすることができる。
生成した事象列と観測された事象列との間の階層的最適輸送距離を最小化することにより,提案モデルを学習する。
論文 参考訳(メタデータ) (2021-02-04T17:09:50Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - CAUSE: Learning Granger Causality from Event Sequences using Attribution
Methods [25.04848774593105]
本稿では,非同期,相互依存,多型イベントシーケンスからイベントタイプ間のグランガー因果関係を学習する問題について検討する。
研究課題の新たな枠組みであるCAUSE(Causality from AttribUtions on Sequence of Events)を提案する。
そこで我々は,CAUSEが最先端の手法に対して,タイプ間グランガー因果関係を正しく推定する上で,優れた性能を達成できることを実証した。
論文 参考訳(メタデータ) (2020-02-18T22:21:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。