論文の概要: On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation
- arxiv url: http://arxiv.org/abs/2010.12408v2
- Date: Mon, 15 Feb 2021 12:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 21:49:11.344808
- Title: On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation
- Title(参考訳): デカップリンググラフ畳み込みネットワークとラベル伝搬の等価性について
- Authors: Hande Dong, Jiawei Chen, Fuli Feng, Xiangnan He, Shuxian Bi, Zhaolin
Ding, Peng Cui
- Abstract要約: いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
- 参考スコア(独自算出の注目度): 60.34028546202372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The original design of Graph Convolution Network (GCN) couples feature
transformation and neighborhood aggregation for node representation learning.
Recently, some work shows that coupling is inferior to decoupling, which
supports deep graph propagation better and has become the latest paradigm of
GCN (e.g., APPNP and SGCN). Despite effectiveness, the working mechanisms of
the decoupled GCN are not well understood. In this paper, we explore the
decoupled GCN for semi-supervised node classification from a novel and
fundamental perspective -- label propagation. We conduct thorough theoretical
analyses, proving that the decoupled GCN is essentially the same as the
two-step label propagation: first, propagating the known labels along the graph
to generate pseudo-labels for the unlabeled nodes, and second, training normal
neural network classifiers on the augmented pseudo-labeled data. More
interestingly, we reveal the effectiveness of decoupled GCN: going beyond the
conventional label propagation, it could automatically assign structure- and
model- aware weights to the pseudo-label data. This explains why the decoupled
GCN is relatively robust to the structure noise and over-smoothing, but
sensitive to the label noise and model initialization. Based on this insight,
we propose a new label propagation method named Propagation then Training
Adaptively (PTA), which overcomes the flaws of the decoupled GCN with a dynamic
and adaptive weighting strategy. Our PTA is simple yet more effective and
robust than decoupled GCN. We empirically validate our findings on four
benchmark datasets, demonstrating the advantages of our method. The code is
available at https://github.com/DongHande/PT_propagation_then_training.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcn)のオリジナル設計は、ノード表現学習のための特徴変換と近傍アグリゲーションを結合する。
近年、疎結合よりも結合性が劣り、ディープグラフの伝搬がより良くなり、gcn(例えば、appnpとsgcn)の最新のパラダイムになっていることが示されている。
有効性にもかかわらず、分離gcnの動作メカニズムはよく分かっていない。
本稿では, 半教師付きノード分類のための疎結合GCNについて, ラベル伝搬の観点から検討する。
まず、未知のノードの擬似ラベルを生成するために、既知のラベルをグラフに沿って伝播させ、次に、拡張された擬似ラベルデータに基づいて正常なニューラルネットワーク分類器を訓練する。
より興味深いことに,従来のラベル伝搬を超えて,構造とモデルを考慮した重み付けを擬似ラベルデータに自動的に割り当てることができる。
これは分離gcnが構造ノイズや過剰スムーシングに対して比較的堅牢であるが、ラベルノイズやモデル初期化に敏感である理由を説明する。
そこで本研究では,疎結合GCNの欠陥を克服し,動的かつ適応的な重み付け戦略を用いて,PTA(Propagation then Training Adaptively)というラベル伝搬手法を提案する。
当社のPTAは、GCNを分離するよりもシンプルですが、効率的で堅牢です。
その結果を4つのベンチマークデータセットで実証的に検証し,本手法の利点を実証した。
コードはhttps://github.com/donghande/pt_propagation_then_trainingで入手できる。
関連論文リスト
- Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Label-Enhanced Graph Neural Network for Semi-supervised Node
Classification [32.64730237473914]
グラフニューラルネットワーク(GNN)のためのラベル強化学習フレームワークを提案する。
まず、各ラベルをクラス内のノードの仮想センターとしてモデル化し、次にノードとラベルの両方の表現を共同で学習する。
提案手法は,同一クラスに属するノードの表現を円滑に行うだけでなく,ラベルセマンティクスをGNNの学習プロセスに明示的にエンコードする。
論文 参考訳(メタデータ) (2022-05-31T09:48:47Z) - Label-GCN: An Effective Method for Adding Label Propagation to Graph
Convolutional Networks [1.8352113484137624]
グラフ畳み込みネットワーク(GCN)の第1層の変更は、近隣ノード間でラベル情報を効果的に伝播するために利用できることを示す。
これは、GCNのトレーニングフェーズ中にラベル機能のためのセルフループを選択的に除去する。
推論フェーズ中に利用可能なラベルの数に応じて、この戦略がモデルパフォーマンスの大幅な改善につながる可能性があるいくつかの実験を通して示します。
論文 参考訳(メタデータ) (2021-04-05T21:02:48Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z) - Cyclic Label Propagation for Graph Semi-supervised Learning [52.102251202186025]
本稿では,CycPropと呼ばれるグラフ半教師付き学習のための新しいフレームワークを提案する。
CycPropはGNNを周期的かつ相互に強化された方法でラベル伝播の過程に統合する。
特に,提案するCycPropでは,GNNモジュールが学習したノード埋め込みをラベル伝搬による拡張情報で更新する。
論文 参考訳(メタデータ) (2020-11-24T02:55:40Z) - Investigating and Mitigating Degree-Related Biases in Graph
Convolutional Networks [62.8504260693664]
グラフ畳み込みネットワーク(GCN)は、グラフ上の半教師付き学習タスクに対して有望な結果を示す。
本稿では,ノード次数分布に関するGCNを解析する。
本稿では,GCNの次数バイアスを緩和する自己監督型DegreeSpecific GCN(SL-DSGC)を開発した。
論文 参考訳(メタデータ) (2020-06-28T16:26:47Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Unifying Graph Convolutional Neural Networks and Label Propagation [73.82013612939507]
LPAとGCNの関係を特徴・ラベルの平滑化と特徴・ラベルの影響の2点の観点から検討した。
理論解析に基づいて,ノード分類のためのGCNとLCAを統一するエンドツーエンドモデルを提案する。
我々のモデルは、既存の特徴に基づく注目モデルよりもタスク指向のノードラベルに基づく学習注意重みと見なすこともできる。
論文 参考訳(メタデータ) (2020-02-17T03:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。