論文の概要: GraphPatcher: Mitigating Degree Bias for Graph Neural Networks via
Test-time Augmentation
- arxiv url: http://arxiv.org/abs/2310.00800v1
- Date: Sun, 1 Oct 2023 21:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 01:48:40.191916
- Title: GraphPatcher: Mitigating Degree Bias for Graph Neural Networks via
Test-time Augmentation
- Title(参考訳): GraphPatcher: テスト時間拡張によるグラフニューラルネットワークの遅延バイアスの軽減
- Authors: Mingxuan Ju, Tong Zhao, Wenhao Yu, Neil Shah, Yanfang Ye
- Abstract要約: グラフニューラルネットワーク(GNN)は通常、豊富な隣り合う情報を持つ高次ノードで十分に機能するが、低次ノードと競合する。
低次ノード上の任意のGNNのテスト時間一般化を強化するためのテスト時間拡張フレームワークであるGraphPatcherを提案する。
GraphPatcherはGNN全体のパフォーマンスを最大3.6%向上し、低度性能を最大6.5%向上させ、最先端のベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 48.88356355021239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that graph neural networks (GNNs) exhibit strong
biases towards the node degree: they usually perform satisfactorily on
high-degree nodes with rich neighbor information but struggle with low-degree
nodes. Existing works tackle this problem by deriving either designated GNN
architectures or training strategies specifically for low-degree nodes. Though
effective, these approaches unintentionally create an artificial
out-of-distribution scenario, where models mainly or even only observe
low-degree nodes during the training, leading to a downgraded performance for
high-degree nodes that GNNs originally perform well at. In light of this, we
propose a test-time augmentation framework, namely GraphPatcher, to enhance
test-time generalization of any GNNs on low-degree nodes. Specifically,
GraphPatcher iteratively generates virtual nodes to patch artificially created
low-degree nodes via corruptions, aiming at progressively reconstructing target
GNN's predictions over a sequence of increasingly corrupted nodes. Through this
scheme, GraphPatcher not only learns how to enhance low-degree nodes (when the
neighborhoods are heavily corrupted) but also preserves the original superior
performance of GNNs on high-degree nodes (when lightly corrupted).
Additionally, GraphPatcher is model-agnostic and can also mitigate the degree
bias for either self-supervised or supervised GNNs. Comprehensive experiments
are conducted over seven benchmark datasets and GraphPatcher consistently
enhances common GNNs' overall performance by up to 3.6% and low-degree
performance by up to 6.5%, significantly outperforming state-of-the-art
baselines. The source code is publicly available at
https://github.com/jumxglhf/GraphPatcher.
- Abstract(参考訳): 近年の研究では、グラフニューラルネットワーク(GNN)はノード次数に対して強いバイアスを示すことが示されている。
既存の作業では、指定されたgnnアーキテクチャか、特に低次ノードのためのトレーニング戦略を導出することでこの問題に対処している。
モデルは主に、あるいはトレーニング中に低次ノードのみを観察することで、gnnが当初うまく機能していた高次ノードのパフォーマンスが低下する、というシナリオだ。
そこで我々は,低次ノード上でのGNNのテスト時間一般化を強化するためのテスト時間拡張フレームワークであるGraphPatcherを提案する。
具体的には、GraphPatcherは、汚職によって人工的に生成された低次ノードにパッチを当てる仮想ノードを反復的に生成する。
このスキームを通じて、graphpatcherは低次ノードの強化方法を学習するだけでなく、低次ノード上でのgnnの本来の優れた性能を(軽い破損時に)保持する。
さらに、GraphPatcherはモデルに依存しないため、自己管理または教師付きGNNの次数バイアスを軽減することもできる。
総合的な実験は7つのベンチマークデータセット上で行われ、GraphPatcherは共通のGNN全体のパフォーマンスを最大3.6%向上し、低次性能を最大6.5%向上させる。
ソースコードはhttps://github.com/jumxglhf/GraphPatcherで公開されている。
関連論文リスト
- Mitigating Degree Bias in Signed Graph Neural Networks [5.042342963087923]
SGNN(Signed Graph Neural Networks)は、ソースデータと典型的な集約手法による公平性問題に対処する。
本稿では,GNN から拡張された SGNN の公正性の調査を先駆的に進める。
署名されたグラフ内の次数バイアスの問題を識別し、SGNNに関する公平性問題に対する新たな視点を提供する。
論文 参考訳(メタデータ) (2024-08-16T03:22:18Z) - Node Duplication Improves Cold-start Link Prediction [52.917775253887264]
グラフニューラルネットワーク(GNN)は、グラフ機械学習において顕著である。
近年の研究では、GNNは低次ノードで良い結果を出すのに苦労していることが示されている。
我々はNodeDupと呼ばれるシンプルだが驚くほど効果的な拡張手法を提案する。
論文 参考訳(メタデータ) (2024-02-15T05:07:39Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - GraFN: Semi-Supervised Node Classification on Graph with Few Labels via
Non-Parametric Distribution Assignment [5.879936787990759]
本研究では,グラフの半教師付き手法であるGraFNを提案し,同一クラスに属するノードをグループ化する。
GraFNはグラフ全体からラベル付きノードとアンカーノードからランダムにノードをサンプリングする。
実世界のグラフ上のノード分類において,GraFNが半教師付き手法と自己教師型手法のどちらよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-04T08:22:30Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Investigating and Mitigating Degree-Related Biases in Graph
Convolutional Networks [62.8504260693664]
グラフ畳み込みネットワーク(GCN)は、グラフ上の半教師付き学習タスクに対して有望な結果を示す。
本稿では,ノード次数分布に関するGCNを解析する。
本稿では,GCNの次数バイアスを緩和する自己監督型DegreeSpecific GCN(SL-DSGC)を開発した。
論文 参考訳(メタデータ) (2020-06-28T16:26:47Z) - Graph Random Neural Network for Semi-Supervised Learning on Graphs [36.218650686748546]
グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。