論文の概要: OOD-GNN: Out-of-Distribution Generalized Graph Neural Network
- arxiv url: http://arxiv.org/abs/2112.03806v1
- Date: Tue, 7 Dec 2021 16:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:28:03.097057
- Title: OOD-GNN: Out-of-Distribution Generalized Graph Neural Network
- Title(参考訳): ood-gnn: 分散型一般化グラフニューラルネットワーク
- Authors: Haoyang Li, Xin Wang, Ziwei Zhang, Wenwu Zhu
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
- 参考スコア(独自算出の注目度): 73.67049248445277
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph neural networks (GNNs) have achieved impressive performance when
testing and training graph data come from identical distribution. However,
existing GNNs lack out-of-distribution generalization abilities so that their
performance substantially degrades when there exist distribution shifts between
testing and training graph data. To solve this problem, in this work, we
propose an out-of-distribution generalized graph neural network (OOD-GNN) for
achieving satisfactory performance on unseen testing graphs that have different
distributions with training graphs. Our proposed OOD-GNN employs a novel
nonlinear graph representation decorrelation method utilizing random Fourier
features, which encourages the model to eliminate the statistical dependence
between relevant and irrelevant graph representations through iteratively
optimizing the sample graph weights and graph encoder. We further design a
global weight estimator to learn weights for training graphs such that
variables in graph representations are forced to be independent. The learned
weights help the graph encoder to get rid of spurious correlations and, in
turn, concentrate more on the true connection between learned discriminative
graph representations and their ground-truth labels. We conduct extensive
experiments to validate the out-of-distribution generalization abilities on two
synthetic and 12 real-world datasets with distribution shifts. The results
demonstrate that our proposed OOD-GNN significantly outperforms
state-of-the-art baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
しかし、既存のGNNでは、テストとトレーニンググラフデータの間に分散シフトが存在する場合、その性能が著しく低下する、分散の一般化能力が欠如している。
この問題を解決するため,本研究では,トレーニンググラフと分布が異なる未認識テストグラフにおいて,満足度の高い性能を実現するために,分散一般化グラフニューラルネットワーク(ood-gnn)を提案する。
提案するood-gnnは,ランダムフーリエ特徴を用いた新しい非線形グラフ表現相関法を用いて,サンプルグラフ重みとグラフエンコーダを反復最適化することにより,関連するグラフ表現と無関係グラフ表現の統計的依存性を解消する。
さらに,グラフ表現の変数が独立であるように,学習グラフの重み付けを学ぶための大域的重み推定器も設計する。
学習した重みは、グラフエンコーダが急激な相関関係を排除し、学習した識別グラフ表現とそれらの基底構造ラベルとの真の関連性に集中するのに役立つ。
分散シフトのある2つの実世界データセットと12個の実世界データセットの分散汎化能力を検証するために,広範囲にわたる実験を行った。
その結果,OOD-GNNは最先端のベースラインよりも優れていた。
関連論文リスト
- Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。