論文の概要: Out-of-Distribution Generalized Dynamic Graph Neural Network with
Disentangled Intervention and Invariance Promotion
- arxiv url: http://arxiv.org/abs/2311.14255v2
- Date: Fri, 8 Mar 2024 06:25:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 23:04:51.768810
- Title: Out-of-Distribution Generalized Dynamic Graph Neural Network with
Disentangled Intervention and Invariance Promotion
- Title(参考訳): 絡み合った干渉と分散促進を伴う分布外一般化動的グラフニューラルネットワーク
- Authors: Zeyang Zhang, Xin Wang, Ziwei Zhang, Haoyang Li, Wenwu Zhu
- Abstract要約: 動的グラフニューラルネットワーク(DyGNN)は、グラフと時間力学を利用して強力な予測能力を実証している。
既存のDyGNNは、動的グラフに自然に存在する分散シフトを処理できない。
- 参考スコア(独自算出の注目度): 61.751257172868186
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dynamic graph neural networks (DyGNNs) have demonstrated powerful predictive
abilities by exploiting graph structural and temporal dynamics. However, the
existing DyGNNs fail to handle distribution shifts, which naturally exist in
dynamic graphs, mainly because the patterns exploited by DyGNNs may be variant
with respect to labels under distribution shifts. In this paper, we propose
Disentangled Intervention-based Dynamic graph Attention networks with
Invariance Promotion (I-DIDA) to handle spatio-temporal distribution shifts in
dynamic graphs by discovering and utilizing invariant patterns, i.e.,
structures and features whose predictive abilities are stable across
distribution shifts. Specifically, we first propose a disentangled
spatio-temporal attention network to capture the variant and invariant
patterns. By utilizing the disentangled patterns, we design a spatio-temporal
intervention mechanism to create multiple interventional distributions and an
environment inference module to infer the latent spatio-temporal environments,
and minimize the variance of predictions among these intervened distributions
and environments, so that our model can make predictions based on invariant
patterns with stable predictive abilities under distribution shifts. Extensive
experiments demonstrate the superiority of our method over state-of-the-art
baselines under distribution shifts. Our work is the first study of
spatio-temporal distribution shifts in dynamic graphs, to the best of our
knowledge.
- Abstract(参考訳): 動的グラフニューラルネットワーク(DyGNN)は、グラフ構造と時間的ダイナミクスを利用して、強力な予測能力を示す。
しかし、DyGNNsは分散シフトを扱うことができず、DyGNNsが悪用したパターンは分散シフトのラベルに対して変動する可能性があるため、動的グラフに自然に存在する。
本稿では,不変パターン,すなわち分布シフト間での予測能力が安定な構造や特徴を発見・活用することにより,動的グラフにおける時空間的分布シフトを処理するために,分散促進(i-dida)を用いた異方性インベンションに基づく動的グラフアテンションネットワークを提案する。
具体的には,まず,変形パターンと不変パターンを捉えるために,時空間的注意ネットワークを提案する。
本研究では,複数の介入分布を作成できる時空間的介入機構と,潜在時空間環境を推定する環境推論モジュールを設計し,これらの介入された分布と環境間の予測の分散を最小化し,分布シフト下で安定な予測能力を有する不変パターンに基づく予測を行う。
広範にわたる実験により,分布シフト下での最先端ベースラインよりも優れた手法が得られた。
我々の研究は、動的グラフにおける時空間分布シフトに関する最初の研究である。
関連論文リスト
- Topology-Aware Dynamic Reweighting for Distribution Shifts on Graph [24.44321658238713]
グラフニューラルネットワーク(GNN)は、ノード分類タスクに広く使用されているが、トレーニングやテストノードが異なるディストリビューションから来ると、一般化に失敗することが多い。
トレーニング中にWasserstein空間の勾配流を通じて標本重量を動的に調整するTopology-Aware Dynamic Reweighting (TAR) フレームワークを導入する。
フレームワークの優位性は、4つのグラフOODデータセットと3つのクラス不均衡ノード分類データセットの標準テストによって実証される。
論文 参考訳(メタデータ) (2024-06-03T07:32:05Z) - Graphs Generalization under Distribution Shifts [11.963958151023732]
グラフ学習不変領域ジェネレーション(GLIDER)という新しいフレームワークを導入する。
本モデルでは,ノード特徴量と位相構造量の分布シフトを同時に行う場合,ノードレベルのOOD一般化に基づくベースライン手法よりも優れる。
論文 参考訳(メタデータ) (2024-03-25T00:15:34Z) - Spectral Invariant Learning for Dynamic Graphs under Distribution Shifts [57.19908334882441]
動的グラフニューラルネットワーク(DyGNN)は現在、動的グラフ固有の分散シフトを扱うのに苦労している。
本稿では,スペクトル領域における動的グラフの分布変化を初めて研究する。
論文 参考訳(メタデータ) (2024-03-08T04:07:23Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Temporal Domain Generalization with Drift-Aware Dynamic Neural Network [12.483886657900525]
ドリフト対応動的ニューラルネットワーク(DRAIN)フレームワークを用いた時間領域一般化を提案する。
具体的には、この問題を、データとモデル力学の関係を共同でモデル化するベイズ的枠組みに定式化する。
モデルパラメータとデータ分布の時間的ドリフトをキャプチャし、将来のデータなしで将来モデルを予測することができる。
論文 参考訳(メタデータ) (2022-05-21T20:01:31Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。