論文の概要: Graph Out-of-Distribution Generalization via Causal Intervention
- arxiv url: http://arxiv.org/abs/2402.11494v2
- Date: Fri, 16 Aug 2024 08:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 20:34:59.100734
- Title: Graph Out-of-Distribution Generalization via Causal Intervention
- Title(参考訳): 因果干渉によるグラフアウトオブディストリビューション一般化
- Authors: Qitian Wu, Fan Nie, Chenxiao Yang, Tianyi Bao, Junchi Yan,
- Abstract要約: 本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
- 参考スコア(独自算出の注目度): 69.70137479660113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) generalization has gained increasing attentions for learning on graphs, as graph neural networks (GNNs) often exhibit performance degradation with distribution shifts. The challenge is that distribution shifts on graphs involve intricate interconnections between nodes, and the environment labels are often absent in data. In this paper, we adopt a bottom-up data-generative perspective and reveal a key observation through causal analysis: the crux of GNNs' failure in OOD generalization lies in the latent confounding bias from the environment. The latter misguides the model to leverage environment-sensitive correlations between ego-graph features and target nodes' labels, resulting in undesirable generalization on new unseen nodes. Built upon this analysis, we introduce a conceptually simple yet principled approach for training robust GNNs under node-level distribution shifts, without prior knowledge of environment labels. Our method resorts to a new learning objective derived from causal inference that coordinates an environment estimator and a mixture-of-expert GNN predictor. The new approach can counteract the confounding bias in training data and facilitate learning generalizable predictive relations. Extensive experiment demonstrates that our model can effectively enhance generalization with various types of distribution shifts and yield up to 27.4\% accuracy improvement over state-of-the-arts on graph OOD generalization benchmarks. Source codes are available at https://github.com/fannie1208/CaNet.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、分散シフトに伴うパフォーマンス劣化を示すことが多いため、アウト・オブ・ディストリビューション(OOD)の一般化は、グラフの学習に注目が集まっている。
課題は、グラフ上の分散シフトがノード間の複雑な相互接続を伴い、環境ラベルがデータに欠落することである。
本稿では、ボトムアップデータ生成の視点を採用し、因果解析による重要な観察を明らかにする。
後者は、エゴグラフの特徴とターゲットノードのラベルの間の環境に敏感な相関を利用して、新しい未知のノードに好ましくない一般化をもたらすようにモデルを誤解している。
この分析に基づいて,環境ラベルの事前知識を必要とせず,ノードレベルの分散シフトの下で堅牢なGNNをトレーニングするための,概念的に単純だが原則化されたアプローチを導入する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
この新しいアプローチは、トレーニングデータにおける矛盾するバイアスに対処し、一般化可能な予測関係の学習を容易にする。
総合的な実験により,我々のモデルは分散シフトの多種多様さによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端技術よりも最大27.4\%の精度向上が得られることが示された。
ソースコードはhttps://github.com/fannie1208/CaNet.comで入手できる。
関連論文リスト
- IENE: Identifying and Extrapolating the Node Environment for Out-of-Distribution Generalization on Graphs [10.087216264788097]
ノードレベルの環境識別と外挿技術に基づくグラフのOOD一般化手法であるIENEを提案する。
モデルが2つの粒度から不変性を同時に抽出する能力を強化し、一般化が向上する。
論文 参考訳(メタデータ) (2024-06-02T14:43:56Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Debiasing Graph Neural Networks via Learning Disentangled Causal
Substructure [46.86463923605841]
本稿では、重度バイアスのあるトレーニンググラフについて、グラフ分類調査を行う。
我々は、GNNが常に決定を下すために急激な相関関係を探索する傾向があることに気付きました。
本稿では、因果部分構造とバイアス部分構造を学習するための一般的な非絡み合いGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:55:52Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。