論文の概要: AdaGCN:Adaptive Boosting Algorithm for Graph Convolutional Networks on
Imbalanced Node Classification
- arxiv url: http://arxiv.org/abs/2105.11625v1
- Date: Tue, 25 May 2021 02:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 14:25:54.321795
- Title: AdaGCN:Adaptive Boosting Algorithm for Graph Convolutional Networks on
Imbalanced Node Classification
- Title(参考訳): AdaGCN:不均衡ノード分類に基づくグラフ畳み込みネットワークの適応ブースティングアルゴリズム
- Authors: S. Shi, Kai Qiao, Shuai Yang, L. Wang, J. Chen and Bin Yan
- Abstract要約: AdaGCNと呼ばれるアンサンブルモデルを提案する。このモデルでは,アダプティブ・ブーピング時のベース推定にグラフ畳み込みネットワーク(GCN)を用いる。
我々のモデルは、考慮すべきノード分類タスクのすべてにおいて、最先端のベースラインも改善します。
- 参考スコア(独自算出の注目度): 10.72543417177307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Graph Neural Network (GNN) has achieved remarkable success in graph data
representation. However, the previous work only considered the ideal balanced
dataset, and the practical imbalanced dataset was rarely considered, which, on
the contrary, is of more significance for the application of GNN. Traditional
methods such as resampling, reweighting and synthetic samples that deal with
imbalanced datasets are no longer applicable in GNN. Ensemble models can handle
imbalanced datasets better compared with single estimator. Besides, ensemble
learning can achieve higher estimation accuracy and has better reliability
compared with the single estimator. In this paper, we propose an ensemble model
called AdaGCN, which uses a Graph Convolutional Network (GCN) as the base
estimator during adaptive boosting. In AdaGCN, a higher weight will be set for
the training samples that are not properly classified by the previous
classifier, and transfer learning is used to reduce computational cost and
increase fitting capability. Experiments show that the AdaGCN model we proposed
achieves better performance than GCN, GraphSAGE, GAT, N-GCN and the most of
advanced reweighting and resampling methods on synthetic imbalanced datasets,
with an average improvement of 4.3%. Our model also improves state-of-the-art
baselines on all of the challenging node classification tasks we consider:
Cora, Citeseer, Pubmed, and NELL.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフデータ表現において顕著な成功を収めた。
しかし、以前の研究は理想的な均衡データセットのみを考慮し、実際的な不均衡データセットはめったに考慮されず、それとは対照的に、GNNの適用にはより重要である。
不均衡なデータセットを扱う再サンプリング、再重み付け、合成サンプルといった従来の手法は、もはやGNNには適用されない。
アンサンブルモデルは、単一の推定器よりも不均衡なデータセットを処理できる。
さらに、アンサンブル学習は推定精度が高く、単一推定器と比較して信頼性が高い。
本稿では,適応昇圧時のベース推定器としてグラフ畳み込みネットワーク(gcn)を用いるadagcnと呼ばれるアンサンブルモデルを提案する。
AdaGCNでは、以前の分類器で適切に分類されていないトレーニングサンプルに対してより高い重量が設定され、転送学習が計算コストの削減と適合性の向上に使用される。
実験の結果,提案したAdaGCNモデルの方がGCN, GraphSAGE, GAT, N-GCN, および合成不均衡データセット上での高度な再重み付けおよび再サンプリング手法よりも,平均4.3%向上した。
当社のモデルは,Cora,Citeseer,Pubmed,NELLといったノード分類タスクのすべてにおいて,最先端のベースラインを改善しています。
関連論文リスト
- Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - Class-Balanced and Reinforced Active Learning on Graphs [13.239043161351482]
グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、さまざまなアプリケーションで大きな成功を収めている。
GNNのアクティブラーニングは、ラベルのないデータから貴重なサンプルを照会して、GNNのパフォーマンスを低コストで最大化することを目的としている。
GNNにおける強化能動学習のための既存のアルゴリズムは、特に高度に歪んだクラスシナリオにおいて、高度に不均衡なクラス分布をもたらす可能性がある。
我々は、GNNのための新しいクラスバランスと強化されたアクティブラーニングフレームワーク、すなわちGCBRを提案し、クラスバランスと情報ノードを取得するための最適なポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-15T16:37:14Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Automated Graph Learning via Population Based Self-Tuning GCN [45.28411311903644]
グラフ畳み込みネットワーク(GCN)とその変種は、幅広いタスクにうまく適用されている。
従来のGCNモデルはオーバーフィッティングとオーバースムーシングの問題に悩まされている。
DropEdgeのような最近の技術はこれらの問題を緩和し、ディープGCNの開発を可能にする。
論文 参考訳(メタデータ) (2021-07-09T23:05:21Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。