論文の概要: Label-Enhanced Graph Neural Network for Semi-supervised Node
Classification
- arxiv url: http://arxiv.org/abs/2205.15653v1
- Date: Tue, 31 May 2022 09:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 14:52:45.102558
- Title: Label-Enhanced Graph Neural Network for Semi-supervised Node
Classification
- Title(参考訳): 半教師付きノード分類のためのラベル強調グラフニューラルネットワーク
- Authors: Le Yu, Leilei Sun, Bowen Du, Tongyu Zhu, Weifeng Lv
- Abstract要約: グラフニューラルネットワーク(GNN)のためのラベル強化学習フレームワークを提案する。
まず、各ラベルをクラス内のノードの仮想センターとしてモデル化し、次にノードとラベルの両方の表現を共同で学習する。
提案手法は,同一クラスに属するノードの表現を円滑に行うだけでなく,ラベルセマンティクスをGNNの学習プロセスに明示的にエンコードする。
- 参考スコア(独自算出の注目度): 32.64730237473914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have been widely applied in the semi-supervised
node classification task, where a key point lies in how to sufficiently
leverage the limited but valuable label information. Most of the classical GNNs
solely use the known labels for computing the classification loss at the
output. In recent years, several methods have been designed to additionally
utilize the labels at the input. One part of the methods augment the node
features via concatenating or adding them with the one-hot encodings of labels,
while other methods optimize the graph structure by assuming neighboring nodes
tend to have the same label. To bring into full play the rich information of
labels, in this paper, we present a label-enhanced learning framework for GNNs,
which first models each label as a virtual center for intra-class nodes and
then jointly learns the representations of both nodes and labels. Our approach
could not only smooth the representations of nodes belonging to the same class,
but also explicitly encode the label semantics into the learning process of
GNNs. Moreover, a training node selection technique is provided to eliminate
the potential label leakage issue and guarantee the model generalization
ability. Finally, an adaptive self-training strategy is proposed to iteratively
enlarge the training set with more reliable pseudo labels and distinguish the
importance of each pseudo-labeled node during the model training process.
Experimental results on both real-world and synthetic datasets demonstrate our
approach can not only consistently outperform the state-of-the-arts, but also
effectively smooth the representations of intra-class nodes.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は半教師付きノード分類タスクにおいて広く応用されている。
古典的なGNNの多くは、出力における分類損失を計算するために既知のラベルのみを使用する。
近年,入力時にラベルを付加的に利用する手法がいくつか提案されている。
方法の1つは、隣接ノードが同じラベルを持つ傾向があると仮定してグラフ構造を最適化するのに対し、ラベルの1ホットエンコーディングを連結または追加することでノード機能を増強する。
本稿では,ラベルの豊富な情報をフルに活用するために,まず各ラベルをクラス内ノードの仮想センターとしてモデル化し,各ノードとラベルの表現を共同で学習する,GNNのためのラベル強化学習フレームワークを提案する。
提案手法は,同一クラスに属するノードの表現を滑らかにするだけでなく,ラベルの意味をgnnの学習プロセスに明示的にエンコードする。
さらに、潜在的なラベルリーク問題を排除し、モデル一般化能力を保証するためのトレーニングノード選択技術を提供する。
最後に、より信頼性の高い擬似ラベルでトレーニングセットを反復的に拡大し、モデル学習過程における各擬似ラベルノードの重要性を区別する適応型自己学習戦略を提案する。
実世界および合成データセットにおける実験結果から,本手法は最先端のノードを一貫して上回るだけでなく,クラス内ノードの表現を効果的にスムーズに表現できることを示した。
関連論文リスト
- KMF: Knowledge-Aware Multi-Faceted Representation Learning for Zero-Shot
Node Classification [75.95647590619929]
Zero-Shot Node Classification (ZNC)は、グラフデータ分析において、新しく重要なタスクである。
ラベルセマンティクスの豊かさを向上する知識認識型多面的フレームワーク(KMF)を提案する。
ノード情報集約によるプロトタイプドリフトの問題を軽減するために,新しい幾何学的制約を開発した。
論文 参考訳(メタデータ) (2023-08-15T02:38:08Z) - Contrastive Meta-Learning for Few-shot Node Classification [54.36506013228169]
少ないショットノード分類は、限定されたラベル付きノードのみを参照としてグラフ上のノードのラベルを予測することを目的としている。
グラフ上にCOSMICという新しい対照的なメタラーニングフレームワークを2つの重要な設計で作成する。
論文 参考訳(メタデータ) (2023-06-27T02:22:45Z) - Pseudo Contrastive Learning for Graph-based Semi-supervised Learning [67.37572762925836]
Pseudo Labelingは、グラフニューラルネットワーク(GNN)の性能向上に使用されるテクニックである。
我々はPseudo Contrastive Learning(PCL)と呼ばれるGNNのための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-19T10:34:08Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - Structure-Aware Label Smoothing for Graph Neural Networks [39.97741949184259]
ラベル分布を1ホットベクトルとして表現することは、ノード分類モデルのトレーニングにおいて一般的な方法である。
本稿では,一般的なノード分類モデルに対する拡張成分として,新しいSALS(textitStructure-Aware Label Smoothing)法を提案する。
論文 参考訳(メタデータ) (2021-12-01T13:48:58Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - Unifying Graph Convolutional Neural Networks and Label Propagation [73.82013612939507]
LPAとGCNの関係を特徴・ラベルの平滑化と特徴・ラベルの影響の2点の観点から検討した。
理論解析に基づいて,ノード分類のためのGCNとLCAを統一するエンドツーエンドモデルを提案する。
我々のモデルは、既存の特徴に基づく注目モデルよりもタスク指向のノードラベルに基づく学習注意重みと見なすこともできる。
論文 参考訳(メタデータ) (2020-02-17T03:23:13Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z) - Multi-Label Graph Convolutional Network Representation Learning [20.059242373860013]
マルチラベルネットワークのためのノード表現学習のための新しいマルチラベルグラフ畳み込みネットワーク(ML-GCN)を提案する。
2つのGCNはそれぞれノードとラベルの表現学習の1つの側面を扱い、1つの目的関数の下でシームレスに統合される。
論文 参考訳(メタデータ) (2019-12-26T02:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。