論文の概要: PLGC: Pseudo-Labeled Graph Condensation
- arxiv url: http://arxiv.org/abs/2601.10358v1
- Date: Thu, 15 Jan 2026 13:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.138889
- Title: PLGC: Pseudo-Labeled Graph Condensation
- Title(参考訳): PLGC:擬似ラベルグラフ凝縮
- Authors: Jay Nandy, Arnab Kumar Mondal, Anuj Rathore, Mahesh Chandran,
- Abstract要約: 大きなグラフデータセットは、グラフニューラルネットワーク(GNN)のトレーニングを計算にコストがかかる。
既存のアプローチはクリーンで教師付きラベルに依存しており、ラベルが乏しい、うるさい、一貫性のないときに信頼性を制限する。
Pseudo-Labeled Graph Condensation (PLGC)を提案する。
- 参考スコア(独自算出の注目度): 11.1647744418267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large graph datasets make training graph neural networks (GNNs) computationally costly. Graph condensation methods address this by generating small synthetic graphs that approximate the original data. However, existing approaches rely on clean, supervised labels, which limits their reliability when labels are scarce, noisy, or inconsistent. We propose Pseudo-Labeled Graph Condensation (PLGC), a self-supervised framework that constructs latent pseudo-labels from node embeddings and optimizes condensed graphs to match the original graph's structural and feature statistics -- without requiring ground-truth labels. PLGC offers three key contributions: (1) A diagnosis of why supervised condensation fails under label noise and distribution shift. (2) A label-free condensation method that jointly learns latent prototypes and node assignments. (3) Theoretical guarantees showing that pseudo-labels preserve latent structural statistics of the original graph and ensure accurate embedding alignment. Empirically, across node classification and link prediction tasks, PLGC achieves competitive performance with state-of-the-art supervised condensation methods on clean datasets and exhibits substantial robustness under label noise, often outperforming all baselines by a significant margin. Our findings highlight the practical and theoretical advantages of self-supervised graph condensation in noisy or weakly-labeled environments.
- Abstract(参考訳): 大きなグラフデータセットは、グラフニューラルネットワーク(GNN)のトレーニングを計算にコストがかかる。
グラフ凝縮法は、元のデータを近似した小さな合成グラフを生成することでこの問題に対処する。
しかし、既存のアプローチはクリーンで教師付きラベルに依存しており、ラベルが乏しい、うるさい、一貫性のないときにその信頼性を制限する。
Pseudo-Labeled Graph Condensation (PLGC) はノード埋め込みから潜伏する擬似ラベルを構築する自己教師型フレームワークであり、元のグラフの構造と特徴の統計値に一致するように凝縮グラフを最適化する。
PLGCは, ラベルノイズと分布シフトの下で, 教師付き凝縮が失敗する原因の診断を行う。
2)潜在プロトタイプとノード割り当てを共同で学習するラベルフリー凝縮法。
(3) 擬似ラベルが元のグラフの潜在構造統計を保存し、正確な埋め込みアライメントを保証するという理論的保証。
実験的に、ノード分類やリンク予測タスクを通じて、PLGCは、クリーンデータセット上の最先端の教師付き凝縮法と競合する性能を達成し、ラベルノイズの下でかなりの堅牢性を示し、多くの場合、すべてのベースラインをかなりのマージンで上回る。
本研究は, 騒音や低ラベル環境下での自己教師付きグラフ凝縮の実用的, 理論的優位性を明らかにするものである。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [38.72627860431171]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Graph Neural Networks with Coarse- and Fine-Grained Division for Mitigating Label Sparsity and Noise [5.943641527857957]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの処理において,半教師付き学習タスクにおいて注目されている。
現実のシナリオでは、グラフのノード上のラベルは必然的に騒々しく、わずかにラベル付けされているため、GNNのパフォーマンスは著しく低下する。
GNN-CFGD は,粗い分割やきめ細かな分割によるノイズラベルの負の影響を低減し,グラフ再構成を行う。
論文 参考訳(メタデータ) (2024-11-06T08:21:26Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Resurrecting Label Propagation for Graphs with Heterophily and Label Noise [40.11022005996222]
ラベルノイズは、ディープニューラルネットワークの一般化能力を著しく低下させるため、大規模なデータセットでは一般的な課題である。
任意のヘテロフィリーの文脈におけるグラフラベルノイズについて検討し、ノイズラベルの修正とラベルの割り当てを未ラベルノードで行うことを目的とした。
R2LP$は、3つのステップからなる反復アルゴリズムである。(1) グラフを再構成してホモフィリプロパティを復元し、(2) ラベルの伝搬を利用してノイズラベルを修正し、(3) 信頼度の高いラベルを選択して次のイテレーションに保持する。
論文 参考訳(メタデータ) (2023-10-25T11:28:26Z) - Local Graph Clustering with Noisy Labels [8.142265733890918]
本稿では,ノード情報追加のプロキシとしてノイズの多いノードラベルを用いた局所グラフクラスタリングを提案する。
この設定では、ノードはクラスタのアフィリエイトに基づいて初期バイナリラベルを受け取る。
属性グラフから数個のサンプルを用いて,信頼性の高いノードラベルが得られることを示す。
論文 参考訳(メタデータ) (2023-10-12T04:37:15Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。