論文の概要: Rethinking Graph Out-Of-Distribution Generalization: A Learnable Random Walk Perspective
- arxiv url: http://arxiv.org/abs/2505.05785v1
- Date: Fri, 09 May 2025 04:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.153775
- Title: Rethinking Graph Out-Of-Distribution Generalization: A Learnable Random Walk Perspective
- Title(参考訳): グラフアウトオブオフ分布一般化の再考:学習可能なランダムウォークの視点
- Authors: Henan Sun, Xunkai Li, Lei Zhu, Junyi Han, Guang Zeng, Ronghua Li, Guoren Wang,
- Abstract要約: Out-Of-Distribution (OOD) の一般化は、グラフ上での機械学習において注目を集めている。
不変知識の瞬時に学習可能なランダムウォーク(LRW)の視点を提案する。
本モデルでは,様々な分散シフトの下でグラフOOD一般化を効果的に向上し,3.87%の精度向上が得られる。
- 参考スコア(独自算出の注目度): 29.59986993135573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-Of-Distribution (OOD) generalization has gained increasing attentions for machine learning on graphs, as graph neural networks (GNNs) often exhibit performance degradation under distribution shifts. Existing graph OOD methods tend to follow the basic ideas of invariant risk minimization and structural causal models, interpreting the invariant knowledge across datasets under various distribution shifts as graph topology or graph spectrum. However, these interpretations may be inconsistent with real-world scenarios, as neither invariant topology nor spectrum is assured. In this paper, we advocate the learnable random walk (LRW) perspective as the instantiation of invariant knowledge, and propose LRW-OOD to realize graph OOD generalization learning. Instead of employing fixed probability transition matrix (i.e., degree-normalized adjacency matrix), we parameterize the transition matrix with an LRW-sampler and a path encoder. Furthermore, we propose the kernel density estimation (KDE)-based mutual information (MI) loss to generate random walk sequences that adhere to OOD principles. Extensive experiment demonstrates that our model can effectively enhance graph OOD generalization under various types of distribution shifts and yield a significant accuracy improvement of 3.87% over state-of-the-art graph OOD generalization baselines.
- Abstract(参考訳): Out-Of-Distribution (OOD) の一般化は、グラフニューラルネットワーク (GNN) が分散シフト時に性能劣化を示すため、グラフ上の機械学習に注目が集まっている。
既存のグラフOOD法は、不変リスク最小化と構造因果モデルの基本概念に従い、グラフトポロジーやグラフスペクトルとして様々な分布シフトの下でデータセット間の不変知識を解釈する傾向にある。
しかしながら、これらの解釈は、不変トポロジーやスペクトルが保証されないため、現実世界のシナリオと矛盾するかもしれない。
本稿では、不変知識のインスタンス化として学習可能なランダムウォーク(LRW)を提唱し、グラフOOD一般化学習を実現するためにLRW-OODを提案する。
固定確率遷移行列(次数正規化隣接行列)を使う代わりに、LRW-サンプラーとパスエンコーダで遷移行列をパラメータ化する。
さらに,カーネル密度推定(KDE)に基づく相互情報損失(MI)を用いて,OOD原則に準拠したランダムウォークシーケンスを生成する。
大規模実験により,本モデルでは,様々な分散シフト下でのグラフOOD一般化を効果的に向上し,最先端のグラフOOD一般化ベースラインに対して3.87%の精度向上が得られることが示された。
関連論文リスト
- Generative Risk Minimization for Out-of-Distribution Generalization on Graphs [71.48583448654522]
本稿では,抽出ではなく,各入力グラフの不変部分グラフを生成するために,GRM (Generative Risk Minimization) という革新的なフレームワークを提案する。
我々は,ノードレベルのOOD一般化とグラフレベルのOOD一般化のために,さまざまな実世界のグラフデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2025-02-11T21:24:13Z) - Invariant Graph Learning Meets Information Bottleneck for Out-of-Distribution Generalization [9.116601683256317]
本研究では,情報ボトルネック理論に基づく不変グラフ学習(Invariant Graph Learning)という新しいフレームワークを提案する。
具体的には,環境要因に関連するタスク関連情報を圧縮する冗長フィルタを提案する。
合成と実世界の両方のデータセットを用いた実験により,OODの一般化による最先端性能の実現が実証された。
論文 参考訳(メタデータ) (2024-08-03T07:38:04Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Graph Structure and Feature Extrapolation for Out-of-Distribution Generalization [54.64375566326931]
アウト・オブ・ディストリビューション(OOD)の一般化は、テスト分布がトレーニング分布からシフトする一般的な学習シナリオを扱う。
我々は,非ユークリッド空間線型補間の新しい設計により,グラフOOD一般化を実現することを提案する。
我々の設計は、根底にある因果機構を損なうことなく、OODサンプルを特定のシフトのために調整する。
論文 参考訳(メタデータ) (2023-06-13T18:46:28Z) - Invariance Principle Meets Out-of-Distribution Generalization on Graphs [66.04137805277632]
グラフの複素性質は、OOD一般化の不変原理の採用を妨げている。
OODメソッドでしばしば必要とされるドメインや環境のパーティションは、グラフを得るために取得するのにコストがかかる。
コントラスト戦略を用いて,このプロセスを明確にモデル化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-11T04:38:39Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。