論文の概要: Generalizing Graph Neural Networks on Out-Of-Distribution Graphs
- arxiv url: http://arxiv.org/abs/2111.10657v4
- Date: Sun, 10 Mar 2024 07:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 18:16:55.706825
- Title: Generalizing Graph Neural Networks on Out-Of-Distribution Graphs
- Title(参考訳): 分散グラフを用いたグラフニューラルネットワークの一般化
- Authors: Shaohua Fan, Xiao Wang, Chuan Shi, Peng Cui and Bai Wang
- Abstract要約: トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
- 参考スコア(独自算出の注目度): 51.33152272781324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are proposed without considering the agnostic
distribution shifts between training and testing graphs, inducing the
degeneration of the generalization ability of GNNs on Out-Of-Distribution (OOD)
settings. The fundamental reason for such degeneration is that most GNNs are
developed based on the I.I.D hypothesis. In such a setting, GNNs tend to
exploit subtle statistical correlations existing in the training set for
predictions, even though it is a spurious correlation. However, such spurious
correlations may change in testing environments, leading to the failure of
GNNs. Therefore, eliminating the impact of spurious correlations is crucial for
stable GNNs. To this end, we propose a general causal representation framework,
called StableGNN. The main idea is to extract high-level representations from
graph data first and resort to the distinguishing ability of causal inference
to help the model get rid of spurious correlations. Particularly, we exploit a
graph pooling layer to extract subgraph-based representations as high-level
representations. Furthermore, we propose a causal variable distinguishing
regularizer to correct the biased training distribution. Hence, GNNs would
concentrate more on the stable correlations. Extensive experiments on both
synthetic and real-world OOD graph datasets well verify the effectiveness,
flexibility and interpretability of the proposed framework.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,トレーニンググラフとテストグラフの非依存的な分布変化を考慮せずに提案され,OF-Distribution(OOD)設定上でのGNNの一般化能力の低下を招く。
このような退化の根本的な理由は、ほとんどのGNNがI.I.D仮説に基づいて開発されているからである。
このような設定では、gnnはスプリアス相関であるにもかかわらず、トレーニングセットに存在する微妙な統計相関を予測のために利用する傾向がある。
しかし、このような急激な相関関係はテスト環境で変化し、GNNの失敗につながる可能性がある。
したがって、スプリアス相関の影響の排除は安定gnnにとって不可欠である。
そこで我々は,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
主なアイデアは、まずグラフデータからハイレベルな表現を抽出し、モデルがスプリアス相関を取り除くのを助けるために因果推論の識別能力に頼ることである。
特に,グラフプーリング層を用いてグラフベース表現を高レベル表現として抽出する。
さらに,偏りのあるトレーニング分布を補正するための因果変数識別正規化器を提案する。
したがって、GNNはより安定した相関に集中する。
合成および実世界のoodグラフデータセットの広範な実験により、提案フレームワークの有効性、柔軟性、解釈性が検証された。
関連論文リスト
- Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Debiasing Graph Neural Networks via Learning Disentangled Causal
Substructure [46.86463923605841]
本稿では、重度バイアスのあるトレーニンググラフについて、グラフ分類調査を行う。
我々は、GNNが常に決定を下すために急激な相関関係を探索する傾向があることに気付きました。
本稿では、因果部分構造とバイアス部分構造を学習するための一般的な非絡み合いGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:55:52Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。