論文の概要: Debiased Graph Neural Networks with Agnostic Label Selection Bias
- arxiv url: http://arxiv.org/abs/2201.07708v1
- Date: Wed, 19 Jan 2022 16:50:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 16:27:20.564255
- Title: Debiased Graph Neural Networks with Agnostic Label Selection Bias
- Title(参考訳): ラベル選択バイアスを伴わない偏差グラフニューラルネットワーク
- Authors: Shaohua Fan, Xiao Wang, Chuan Shi, Kun Kuang, Nian Liu, Bai Wang
- Abstract要約: 既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
- 参考スコア(独自算出の注目度): 59.61301255860836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing Graph Neural Networks (GNNs) are proposed without considering
the selection bias in data, i.e., the inconsistent distribution between the
training set with test set. In reality, the test data is not even available
during the training process, making selection bias agnostic. Training GNNs with
biased selected nodes leads to significant parameter estimation bias and
greatly impacts the generalization ability on test nodes. In this paper, we
first present an experimental investigation, which clearly shows that the
selection bias drastically hinders the generalization ability of GNNs, and
theoretically prove that the selection bias will cause the biased estimation on
GNN parameters. Then to remove the bias in GNN estimation, we propose a novel
Debiased Graph Neural Networks (DGNN) with a differentiated decorrelation
regularizer. The differentiated decorrelation regularizer estimates a sample
weight for each labeled node such that the spurious correlation of learned
embeddings could be eliminated. We analyze the regularizer in causal view and
it motivates us to differentiate the weights of the variables based on their
contribution on the confounding bias. Then, these sample weights are used for
reweighting GNNs to eliminate the estimation bias, thus help to improve the
stability of prediction on unknown test nodes. Comprehensive experiments are
conducted on several challenging graph datasets with two kinds of label
selection biases. The results well verify that our proposed model outperforms
the state-of-the-art methods and DGNN is a flexible framework to enhance
existing GNNs.
- Abstract(参考訳): 既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアス、すなわちテストセットによるトレーニングセット間の不整合分布を考慮せずに提案されている。
実際には、トレーニングプロセス中にテストデータが利用できないため、選択バイアスが非依存になる。
バイアスのある選択ノードによるGNNのトレーニングは、重要なパラメータ推定バイアスをもたらし、テストノードの一般化能力に大きな影響を及ぼす。
本稿では,まず,選択バイアスがGNNの一般化能力を著しく阻害することを示す実験を行い,選択バイアスがGNNパラメータに対するバイアス推定を引き起こすことを理論的に証明する。
そして、GNN推定におけるバイアスを取り除くために、微分デコリレーション正則化を用いた新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
差分デコリレーション正則化器は各ラベル付きノードの標本重量を推定し、学習した埋め込みの急激な相関を排除できる。
因果的視点で正規化子を分析し,それらの共起バイアスに対する寄与に基づいて変数の重みを区別する動機付けを行う。
そして、これらのサンプル重みをGNNの重み付けに用いて推定バイアスを排除し、未知のテストノードでの予測の安定性を向上させる。
2種類のラベル選択バイアスを持ついくつかの挑戦グラフデータセットに対して総合的な実験を行った。
その結果,提案モデルが最先端の手法より優れており,DGNNは既存のGNNを強化する柔軟なフレームワークであることがわかった。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Stable Prediction on Graphs with Agnostic Distribution Shift [105.12836224149633]
グラフニューラルネットワーク(GNN)は、ランダムにトレーニングとテストデータを分離した様々なグラフタスクに有効であることが示されている。
しかし、実際のアプリケーションでは、トレーニンググラフの分布はテストグラフとは異なるかもしれない。
本稿では,グラフ上での局所的およびグローバル的に安定な学習と予測を可能にする,GNNのための新しい安定な予測フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T02:45:47Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。