論文の概要: Learning Granger Causality from Instance-wise Self-attentive Hawkes
Processes
- arxiv url: http://arxiv.org/abs/2402.03726v1
- Date: Tue, 6 Feb 2024 05:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:17:25.329113
- Title: Learning Granger Causality from Instance-wise Self-attentive Hawkes
Processes
- Title(参考訳): インスタンス・ワイズ・セルフ・アテンティブ・ホークスプロセスによる粒状因果性学習
- Authors: Dongxia Wu, Tsuyoshi Id\'e, Aur\'elie Lozano, Georgios Kollias,
Ji\v{r}\'i Navr\'atil, Naoki Abe, Yi-An Ma, Rose Yu
- Abstract要約: インスタンスワイド・セルフアテンティブ・ホークス・プロセス(ISAHP)は、インスタンスレベルでGranger因果関係を直接推測できる新しいディープラーニングフレームワークである。
ISAHPは、古典的なモデルでは扱えない複雑なインスタンスレベルの因果構造を発見することができる。
- 参考スコア(独自算出の注目度): 24.956802640469554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of learning Granger causality from asynchronous,
interdependent, multi-type event sequences. In particular, we are interested in
discovering instance-level causal structures in an unsupervised manner.
Instance-level causality identifies causal relationships among individual
events, providing more fine-grained information for decision-making. Existing
work in the literature either requires strong assumptions, such as linearity in
the intensity function, or heuristically defined model parameters that do not
necessarily meet the requirements of Granger causality. We propose
Instance-wise Self-Attentive Hawkes Processes (ISAHP), a novel deep learning
framework that can directly infer the Granger causality at the event instance
level. ISAHP is the first neural point process model that meets the
requirements of Granger causality. It leverages the self-attention mechanism of
the transformer to align with the principles of Granger causality. We
empirically demonstrate that ISAHP is capable of discovering complex
instance-level causal structures that cannot be handled by classical models. We
also show that ISAHP achieves state-of-the-art performance in proxy tasks
involving type-level causal discovery and instance-level event type prediction.
- Abstract(参考訳): 本稿では,非同期,相互依存型,複数タイプのイベントシーケンスからGranger因果関係を学習する問題に対処する。
特に、インスタンスレベルの因果構造を教師なしで発見することに興味がある。
インスタンスレベルの因果関係は個々のイベント間の因果関係を認識し、よりきめ細かい情報を提供する。
文献における既存の研究は、強度関数の線形性のような強い仮定や、必ずしもグランジャー因果関係の要件を満たさないヒューリスティックに定義されたモデルパラメータを必要とする。
本稿では,イベントインスタンスレベルでのグランジャー因果関係を直接推測可能な,新しいディープラーニングフレームワークであるisahp(instance-wise self-attentive hawkes processes)を提案する。
ISAHPは、Granger因果性の要求を満たす最初の神経点プロセスモデルである。
変圧器の自己着脱機構を利用して、グレンジャー因果関係の原理に合致する。
我々は、ISAHPが古典モデルでは扱えない複雑なインスタンスレベルの因果構造を発見することができることを実証的に実証した。
また、ISAHPは、タイプレベルの因果発見とインスタンスレベルのイベントタイプ予測を含むプロキシタスクにおいて、最先端のパフォーマンスを達成することを示す。
関連論文リスト
- Granger Causality in Extremes [0.0]
時系列における極端な事象から因果関係を特定するための厳密な枠組みを導入する。
本フレームワークは, 因果尾係数を利用して, 主に極端な事象から因果関係を推定するように設計されている。
また,データから極端にグランガー因果性が存在することを検出する新しい推論手法を提案する。
論文 参考訳(メタデータ) (2024-07-12T18:41:07Z) - Jacobian Regularizer-based Neural Granger Causality [45.902407376192656]
本稿では,ヤコビアン正規化器を用いたニューラルグラガー因果性(JRNGC)アプローチを提案する。
提案手法は,入力出力ヤコビ行列正規化器を利用して重みの空間的制約を解消する。
提案手法は,現在最先端の手法を用いて,グラガー因果関係とフルタイムグラガー因果関係を学習する上での競合性能を実現する。
論文 参考訳(メタデータ) (2024-05-14T17:13:50Z) - TNPAR: Topological Neural Poisson Auto-Regressive Model for Learning
Granger Causal Structure from Event Sequences [27.289511320823895]
イベントシーケンスからグランガー因果関係を学ぶことは、さまざまなアプリケーションにまたがって難しいが必須の課題である。
トポロジカル・ニューラル・ポアソン自己回帰モデルと2つのプロセスの融合を考案する。
シミュレーションおよび実世界のデータを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-06-25T03:31:47Z) - Deep Recurrent Modelling of Granger Causality with Latent Confounding [0.0]
本稿では,非線形なGranger因果関係をモデル化するためのディープラーニングに基づくアプローチを提案する。
我々は,非線形時系列におけるモデル性能を実演し,その要因と効果を異なる時間ラグで示す。
論文 参考訳(メタデータ) (2022-02-23T03:26:22Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Inductive Granger Causal Modeling for Multivariate Time Series [49.29373497269468]
Inductive GRanger cAusal Modeling (InGRA) framework for inductive Granger causality learning and common causal structure detection。
特に,Granger causal attentionと呼ばれる新しい注意機構を通じて,異なるGranger causal Structureを持つ個人に対して,グローバルモデル1つを訓練する。
このモデルは、異なる個体の共通因果構造を検出し、新しく到着した個体のグランガー因果構造を推定することができる。
論文 参考訳(メタデータ) (2021-02-10T07:48:00Z) - CAUSE: Learning Granger Causality from Event Sequences using Attribution
Methods [25.04848774593105]
本稿では,非同期,相互依存,多型イベントシーケンスからイベントタイプ間のグランガー因果関係を学習する問題について検討する。
研究課題の新たな枠組みであるCAUSE(Causality from AttribUtions on Sequence of Events)を提案する。
そこで我々は,CAUSEが最先端の手法に対して,タイプ間グランガー因果関係を正しく推定する上で,優れた性能を達成できることを実証した。
論文 参考訳(メタデータ) (2020-02-18T22:21:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。