論文の概要: IceBerg: Debiased Self-Training for Class-Imbalanced Node Classification
- arxiv url: http://arxiv.org/abs/2502.06280v1
- Date: Mon, 10 Feb 2025 09:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:33.894588
- Title: IceBerg: Debiased Self-Training for Class-Imbalanced Node Classification
- Title(参考訳): IceBerg: クラス不均衡ノード分類のためのデバイアスドセルフトレーニング
- Authors: Zhixun Li, Dingshuo Chen, Tong Zhao, Daixin Wang, Hongrui Liu, Zhiqiang Zhang, Jun Zhou, Jeffrey Xu Yu,
- Abstract要約: 我々は,GNNにおけるクラス不均衡と少数ショットの問題に対処する,偏りのない自己学習フレームワークであるIceBergを提案する。
具体的には,自己学習におけるマシュー効果とラベル分布の変化を明らかにするために,ダブルバランシングを提案する。
その結果,未ラベルノードの活用により,クラス不均衡および少数ショットシナリオにおけるGNNの性能が著しく向上することが判明した。
- 参考スコア(独自算出の注目度): 21.321928330397277
- License:
- Abstract: Graph Neural Networks (GNNs) have achieved great success in dealing with non-Euclidean graph-structured data and have been widely deployed in many real-world applications. However, their effectiveness is often jeopardized under class-imbalanced training sets. Most existing studies have analyzed class-imbalanced node classification from a supervised learning perspective, but they do not fully utilize the large number of unlabeled nodes in semi-supervised scenarios. We claim that the supervised signal is just the tip of the iceberg and a large number of unlabeled nodes have not yet been effectively utilized. In this work, we propose IceBerg, a debiased self-training framework to address the class-imbalanced and few-shot challenges for GNNs at the same time. Specifically, to figure out the Matthew effect and label distribution shift in self-training, we propose Double Balancing, which can largely improve the performance of existing baselines with just a few lines of code as a simple plug-and-play module. Secondly, to enhance the long-range propagation capability of GNNs, we disentangle the propagation and transformation operations of GNNs. Therefore, the weak supervision signals can propagate more effectively to address the few-shot issue. In summary, we find that leveraging unlabeled nodes can significantly enhance the performance of GNNs in class-imbalanced and few-shot scenarios, and even small, surgical modifications can lead to substantial performance improvements. Systematic experiments on benchmark datasets show that our method can deliver considerable performance gain over existing class-imbalanced node classification baselines. Additionally, due to IceBerg's outstanding ability to leverage unsupervised signals, it also achieves state-of-the-art results in few-shot node classification scenarios. The code of IceBerg is available at: https://github.com/ZhixunLEE/IceBerg.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、非ユークリッドグラフ構造化データを扱う上で大きな成功を収め、多くの現実世界のアプリケーションに広くデプロイされている。
しかし、それらの効果は、クラス不均衡のトレーニングセットでしばしば危険に晒される。
既存の研究の多くは、教師付き学習の観点から、クラス不均衡ノード分類を分析しているが、セミ教師付きシナリオでは、多数のラベルなしノードを十分に利用していない。
教師付き信号は氷山の先端に過ぎず,まだ多くの未ラベルノードが有効利用されていないと主張している。
本研究では,GNNにおけるクラス不均衡と少数ショットの問題に同時に対処する,偏りのない自己学習フレームワークであるIceBergを提案する。
具体的には、自己学習におけるMatthew効果とラベル分布のシフトを明らかにするために、単純なプラグイン・アンド・プレイモジュールとして数行のコードで既存のベースラインの性能を大幅に改善できるDouble Balancingを提案する。
第2に、GNNの長距離伝搬能力を高めるために、GNNの伝搬および変換操作を切断する。
したがって、弱監督信号はより効果的に伝播し、数発の問題に対処することができる。
まとめると、未ラベルノードを活用することで、クラス不均衡および少数ショットシナリオにおけるGNNの性能が大幅に向上し、また、小さな外科的修正さえも、大幅なパフォーマンス改善につながることが判明した。
ベンチマークデータセットのシステム実験により,既存のクラス不均衡ノード分類ベースラインよりも高い性能が得られることが示された。
さらに、IceBergは教師なし信号を利用する能力に優れており、数ショットのノード分類シナリオで最先端の結果も達成している。
IceBergのコードは、https://github.com/ZhixunLEE/IceBerg.comで公開されている。
関連論文リスト
- GNN-MultiFix: Addressing the pitfalls for GNNs for multi-label node classification [1.857645719601748]
グラフニューラルネットワーク(GNN)は、グラフデータの表現を学習するための強力なモデルとして登場した。
我々は,最も表現力の高いGNNでさえ,ノード属性や明示的なラベル情報を入力として使用せずに学習できないことを示す。
本稿では,ノードの機能,ラベル,位置情報を統合したGNN-MultiFixという簡単なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-21T12:59:39Z) - Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - E2GNN: Efficient Graph Neural Network Ensembles for Semi-Supervised Classification [30.55931541782854]
本研究では、グラフニューラルネットワーク(GNN)のアンサンブル学習を、人気のある半教師付き環境下で研究する。
ラベル付きノードとラベルなしノードの両方を活用することで,複数のGNNを学習可能な方法で組み立てる,効率的なアンサンブル学習者を提案する。
さまざまなGNNバックボーンと8つのベンチマークデータセットにまたがる、トランスダクティブとインダクティブ両方の設定に関する包括的な実験は、E2GNNの優位性を実証している。
論文 参考訳(メタデータ) (2024-05-06T12:11:46Z) - Class-Balanced and Reinforced Active Learning on Graphs [13.239043161351482]
グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、さまざまなアプリケーションで大きな成功を収めている。
GNNのアクティブラーニングは、ラベルのないデータから貴重なサンプルを照会して、GNNのパフォーマンスを低コストで最大化することを目的としている。
GNNにおける強化能動学習のための既存のアルゴリズムは、特に高度に歪んだクラスシナリオにおいて、高度に不均衡なクラス分布をもたらす可能性がある。
我々は、GNNのための新しいクラスバランスと強化されたアクティブラーニングフレームワーク、すなわちGCBRを提案し、クラスバランスと情報ノードを取得するための最適なポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-15T16:37:14Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Distance-wise Prototypical Graph Neural Network in Node Imbalance
Classification [9.755229198654922]
本研究では,不均衡なグラフデータに対して,距離ワイドなプロトタイプグラフニューラルネットワーク(DPGNN)を提案する。
提案した DPGNN は, ほぼ常に他のベースラインよりも優れており, 不均衡ノード分類におけるその有効性を示している。
論文 参考訳(メタデータ) (2021-10-22T19:43:15Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。