論文の概要: Training a Label-Noise-Resistant GNN with Reduced Complexity
- arxiv url: http://arxiv.org/abs/2411.11020v1
- Date: Sun, 17 Nov 2024 09:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:26:33.605954
- Title: Training a Label-Noise-Resistant GNN with Reduced Complexity
- Title(参考訳): 複雑度を低減したラベル雑音耐性GNNの訓練
- Authors: Rui Zhao, Bin Shi, Zhiming Liang, Jianfei Ruan, Bo Dong, Lu Lin,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類タスクに広く利用されている。
GNNの性能はラベルノイズに大きく影響され、誤ラベル付きノードの数が少なければ、モデルトレーニングを著しく間違える可能性がある。
本稿では,ラベルノイズに対する堅牢なGNN学習のための低次複雑化手法であるラベルアンサンブルグラフニューラルネットワーク(LEGNN)を提案する。
- 参考スコア(独自算出の注目度): 19.032199712090485
- License:
- Abstract: Graph Neural Networks (GNNs) have been widely employed for semi-supervised node classification tasks on graphs. However, the performance of GNNs is significantly affected by label noise, that is, a small amount of incorrectly labeled nodes can substantially misguide model training. Mainstream solutions define node classification with label noise (NCLN) as a reliable labeling task, often introducing node similarity with quadratic computational complexity to more accurately assess label reliability. To this end, in this paper, we introduce the Label Ensemble Graph Neural Network (LEGNN), a lower complexity method for robust GNNs training against label noise. LEGNN reframes NCLN as a label ensemble task, gathering informative multiple labels instead of constructing a single reliable label, avoiding high-complexity computations for reliability assessment. Specifically, LEGNN conducts a two-step process: bootstrapping neighboring contexts and robust learning with gathered multiple labels. In the former step, we apply random neighbor masks for each node and gather the predicted labels as a high-probability label set. This mitigates the impact of inaccurately labeled neighbors and diversifies the label set. In the latter step, we utilize a partial label learning based strategy to aggregate the high-probability label information for model training. Additionally, we symmetrically gather a low-probability label set to counteract potential noise from the bootstrapped high-probability label set. Extensive experiments on six datasets demonstrate that LEGNN achieves outstanding performance while ensuring efficiency. Moreover, it exhibits good scalability on dataset with over one hundred thousand nodes and one million edges.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類タスクに広く利用されている。
しかし、GNNの性能はラベルノイズによって著しく影響を受けており、誤ラベル付きノードの数が少なければ、モデルトレーニングをかなり間違える可能性がある。
メインストリームソリューションは、ラベルノイズ(NCLN)を用いたノード分類を信頼性のあるラベル付けタスクとして定義し、しばしばラベルの信頼性をより正確に評価するために、2次計算の複雑さとノード類似性を導入する。
そこで本稿では,ラベル雑音に対する堅牢なGNN学習のための低次GNN手法であるラベルアンサンブルグラフニューラルネットワーク(LEGNN)を提案する。
LEGNNはNCLNをラベルアンサンブルタスクとして再編成し、単一の信頼性ラベルを構築する代わりに複数の情報ラベルを収集する。
LEGNNは、近隣のコンテキストをブートストラップし、複数のラベルを収集して堅牢な学習を行う。
前者のステップでは、各ノードにランダムな隣接マスクを適用し、予測されたラベルを高確率ラベルセットとして収集する。
これにより、不正確なラベル付き隣人の影響を緩和し、ラベルセットを多様化する。
後半のステップでは、モデルトレーニングのための高確率ラベル情報を集約するために、部分的なラベル学習に基づく戦略を利用する。
さらに、ブートストラップされた高確率ラベルセットから電位ノイズを対策するための低確率ラベルセットを対称的に収集する。
6つのデータセットに対する大規模な実験は、LEGNNが効率を保ちながら優れたパフォーマンスを達成することを示した。
さらに、数十万のノードと100万のエッジを持つデータセットに優れたスケーラビリティを示す。
関連論文リスト
- Graph Neural Networks with Coarse- and Fine-Grained Division for Mitigating Label Sparsity and Noise [5.943641527857957]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの処理において,半教師付き学習タスクにおいて注目されている。
現実のシナリオでは、グラフのノード上のラベルは必然的に騒々しく、わずかにラベル付けされているため、GNNのパフォーマンスは著しく低下する。
GNN-CFGD は,粗い分割やきめ細かな分割によるノイズラベルの負の影響を低減し,グラフ再構成を行う。
論文 参考訳(メタデータ) (2024-11-06T08:21:26Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Robust Training of Graph Neural Networks via Noise Governance [27.767913371777247]
グラフニューラルネットワーク(GNN)は、半教師付き学習のモデルとして広く使われている。
本稿では,グラフノード上のラベルがうるさいだけでなく,難易度も低い重要なシナリオについて考察する。
本稿では,ラベルノイズを明示的に制御する学習により,ロバスト性を向上する新しいRTGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T09:25:32Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - NRGNN: Learning a Label Noise-Resistant Graph Neural Network on Sparsely
and Noisily Labeled Graphs [20.470934944907608]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフ上の半教師付き学習タスクに対して,有望な結果を得た。
多くの実世界のグラフはスパースでノイズの多いラベルが付けられており、GNNの性能を著しく低下させる可能性がある。
半教師付きノード分類のためのラベルノイズ耐性GNNを提案する。
論文 参考訳(メタデータ) (2021-06-08T22:12:44Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。