論文の概要: Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data
- arxiv url: http://arxiv.org/abs/2108.01099v1
- Date: Mon, 2 Aug 2021 18:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 13:57:48.005121
- Title: Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data
- Title(参考訳): Shift-Robust GNN: 局所グラフトレーニングデータの限界を克服する
- Authors: Qi Zhu, Natalia Ponomareva, Jiawei Han, Bryan Perozzi
- Abstract要約: Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
- 参考スコア(独自算出の注目度): 52.771780951404565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a recent surge of interest in designing Graph Neural Networks
(GNNs) for semi-supervised learning tasks. Unfortunately this work has assumed
that the nodes labeled for use in training were selected uniformly at random
(i.e. are an IID sample). However in many real world scenarios gathering labels
for graph nodes is both expensive and inherently biased -- so this assumption
can not be met. GNNs can suffer poor generalization when this occurs, by
overfitting to superfluous regularities present in the training data. In this
work we present a method, Shift-Robust GNN (SR-GNN), designed to account for
distributional differences between biased training data and the graph's true
inference distribution. SR-GNN adapts GNN models for the presence of
distributional shifts between the nodes which have had labels provided for
training and the rest of the dataset. We illustrate the effectiveness of SR-GNN
in a variety of experiments with biased training datasets on common GNN
benchmark datasets for semi-supervised learning, where we see that SR-GNN
outperforms other GNN baselines by accuracy, eliminating at least (~40%) of the
negative effects introduced by biased training data. On the largest dataset we
consider, ogb-arxiv, we observe an 2% absolute improvement over the baseline
and reduce 30% of the negative effects.
- Abstract(参考訳): 半教師付き学習タスクのためのグラフニューラルネットワーク(GNN)の設計への関心が高まっている。
残念なことに、この研究はトレーニングで使用するためにラベル付けされたノードがランダム(すなわちランダム)で一様に選択されたと仮定している。
IIDサンプルである)。
しかし、多くの現実世界のシナリオでは、グラフノードのラベルを集めるのにコストがかかり、本質的にバイアスがかかります。
GNNは、トレーニングデータに存在する過剰な正規性に過度に適合することにより、この現象が発生した場合の一般化を損なう可能性がある。
本研究では、偏りのあるトレーニングデータとグラフの真の推論分布の分布差を考慮に入れたShift-Robust GNN(SR-GNN)を提案する。
sr-gnnは、トレーニング用のラベルとデータセットの残りの部分を備えたノード間の分散シフトの存在をgnnモデルに適応させる。
本稿では,sr-gnnが他のgnnベースラインよりも精度が高く,バイアスドトレーニングデータによって引き起こされる悪影響の少なくとも(約40%)を除去し,sr-gnnが他のgnnベースラインよりも優れる,半教師付き学習のための共通gnnベンチマークデータセット上でのバイアスドトレーニングデータセットを用いた各種実験におけるsr-gnnの有効性を示す。
最も大きなデータセットであるogb-arxivでは、ベースラインに対する2%の絶対的な改善が観察され、負の効果の30%が減少する。
関連論文リスト
- Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - Distance-wise Prototypical Graph Neural Network in Node Imbalance
Classification [9.755229198654922]
本研究では,不均衡なグラフデータに対して,距離ワイドなプロトタイプグラフニューラルネットワーク(DPGNN)を提案する。
提案した DPGNN は, ほぼ常に他のベースラインよりも優れており, 不均衡ノード分類におけるその有効性を示している。
論文 参考訳(メタデータ) (2021-10-22T19:43:15Z) - Stable Prediction on Graphs with Agnostic Distribution Shift [105.12836224149633]
グラフニューラルネットワーク(GNN)は、ランダムにトレーニングとテストデータを分離した様々なグラフタスクに有効であることが示されている。
しかし、実際のアプリケーションでは、トレーニンググラフの分布はテストグラフとは異なるかもしれない。
本稿では,グラフ上での局所的およびグローバル的に安定な学習と予測を可能にする,GNNのための新しい安定な予測フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T02:45:47Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。