論文の概要: Effective Stabilized Self-Training on Few-Labeled Graph Data
- arxiv url: http://arxiv.org/abs/1910.02684v4
- Date: Wed, 1 Mar 2023 13:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:23:54.345049
- Title: Effective Stabilized Self-Training on Few-Labeled Graph Data
- Title(参考訳): グラフデータを用いた効果的な安定化自己学習
- Authors: Ziang Zhou, Jieming Shi, Shengzhong Zhang, Zengfeng Huang, Qing Li
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノードのサブセットだけがクラスラベルを持つグラフ上の半教師付きノード分類のために設計されている。
既存のGNNは、ラベルの少ないグラフ上で不安定なトレーニングプロセスに悩まされており、ノード分類では性能が劣る。
本稿では,ラベル付きデータの不足に対処するため,既存のGNNに適用可能なSST(Stabilized Self-Training)を提案する。
- 参考スコア(独自算出の注目度): 25.09247229533235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are designed for semi-supervised node
classification on graphs where only a subset of nodes have class labels.
However, under extreme cases when very few labels are available (e.g., 1
labeled node per class), GNNs suffer from severe performance degradation.
Specifically, we observe that existing GNNs suffer from unstable training
process on few-labeled graphs, resulting to inferior performance on node
classification. Therefore, we propose an effective framework, Stabilized
Self-Training (SST), which is applicable to existing GNNs to handle the
scarcity of labeled data, and consequently, boost classification accuracy. We
conduct thorough empirical and theoretical analysis to support our findings and
motivate the algorithmic designs in SST. We apply SST to two popular GNN models
GCN and DAGNN, to get SSTGCN and SSTDA methods respectively, and evaluate the
two methods against 10 competitors over 5 benchmarking datasets. Extensive
experiments show that the proposed SST framework is highly effective,
especially when few labeled data are available. Our methods achieve superior
performance under almost all settings over all datasets. For instance, on a
Cora dataset with only 1 labeled node per class, the accuracy of SSTGCN is
62.5%, 17.9% higher than GCN, and the accuracy of SSTDA is 66.4%, which
outperforms DAGNN by 6.6%.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノードのサブセットだけがクラスラベルを持つグラフ上の半教師付きノード分類のために設計されている。
しかし、非常に少ないラベル(例えば、クラスごとに1つのラベル付きノード)の極端な場合、GNNは厳しい性能劣化に悩まされる。
具体的には,既存のgnnが少数ラベルグラフ上で不安定なトレーニングプロセスに陥り,ノード分類の性能が低下するのを観察した。
そこで本稿では,ラベル付きデータの不足に対処するため,既存のGNNに適用可能なSST(Stabilized Self-Training)を提案する。
本研究は,SSTにおけるアルゴリズム設計のモチベーションを高めるために,徹底的な経験的および理論的解析を行う。
我々は2つの人気のあるGNNモデルGCNとDAGNNにSSTを適用し、それぞれSSTGCNとSSTDAの手法を取得し、その2つの手法を5つのベンチマークデータセットに対して10の競合相手に対して評価する。
大規模な実験により、特にラベル付きデータが少ない場合、提案したSSTフレームワークは非常に効果的であることが示されている。
提案手法は,全データセットのほぼすべての設定において,優れた性能を実現する。
例えば、クラス毎に1つのラベル付きノードしか持たないCoraデータセットでは、SSTGCNの精度は62.5%、GCNよりも17.9%高く、SSTDAの精度は66.4%であり、DAGNNの6.6%を上回っている。
関連論文リスト
- GNN-MultiFix: Addressing the pitfalls for GNNs for multi-label node classification [1.857645719601748]
グラフニューラルネットワーク(GNN)は、グラフデータの表現を学習するための強力なモデルとして登場した。
我々は,最も表現力の高いGNNでさえ,ノード属性や明示的なラベル情報を入力として使用せずに学習できないことを示す。
本稿では,ノードの機能,ラベル,位置情報を統合したGNN-MultiFixという簡単なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-21T12:59:39Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Every Node Counts: Improving the Training of Graph Neural Networks on
Node Classification [9.539495585692007]
ノード分類のためのGNNのトレーニングのための新しい目的語を提案する。
我々の第一項は、ノードとラベルの特徴間の相互情報を最大化することを目的としている。
第2項は予測写像における異方的滑らか性を促進する。
論文 参考訳(メタデータ) (2022-11-29T23:25:14Z) - CLNode: Curriculum Learning for Node Classification [21.667947596549663]
CLNode(Curriculum Learning for Node Classification)は,学習中のサンプルの重みを自動的に調整する。
CLNodeは、その正確性と堅牢性を改善するために、さまざまなグラフニューラルネットワーク(GNN)と組み合わせることができる。
論文 参考訳(メタデータ) (2022-06-15T02:43:36Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - Investigating and Mitigating Degree-Related Biases in Graph
Convolutional Networks [62.8504260693664]
グラフ畳み込みネットワーク(GCN)は、グラフ上の半教師付き学習タスクに対して有望な結果を示す。
本稿では,ノード次数分布に関するGCNを解析する。
本稿では,GCNの次数バイアスを緩和する自己監督型DegreeSpecific GCN(SL-DSGC)を開発した。
論文 参考訳(メタデータ) (2020-06-28T16:26:47Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。