論文の概要: Scalable Graph Condensation with Evolving Capabilities
- arxiv url: http://arxiv.org/abs/2502.17614v2
- Date: Mon, 04 Aug 2025 18:01:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.514036
- Title: Scalable Graph Condensation with Evolving Capabilities
- Title(参考訳): 進化能力を備えたスケーラブルなグラフ凝縮
- Authors: Shengbo Gong, Mohammad Hashemi, Juntong Ni, Carl Yang, Wei Jin,
- Abstract要約: 下流タスクを高速化するグラフ凝縮法 (GC) が提案されている。
既存のアプローチは、現実のグラフデータの本質的動的で進化的な性質と矛盾する静的なトレーニングセットを批判的に仮定する。
この研究は連続グラフ凝縮のための新しいフレームワークを導入し、コストのかかる再学習を必要とせず、蒸留グラフの効率的な更新を可能にする。
- 参考スコア(独自算出の注目度): 23.957382415342735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of graph data creates significant scalability challenges as most graph algorithms scale quadratically with size. To mitigate these issues, Graph Condensation (GC) methods have been proposed to learn a small graph from a larger one, accelerating downstream tasks. However, existing approaches critically assume a static training set, which conflicts with the inherently dynamic and evolving nature of real-world graph data. This work introduces a novel framework for continual graph condensation, enabling efficient updates to the distilled graph that handle data streams without requiring costly retraining. This limitation leads to inefficiencies when condensing growing training sets. In this paper, we introduce GECC (\underline{G}raph \underline{E}volving \underline{C}lustering \underline{C}ondensation), a scalable graph condensation method designed to handle large-scale and evolving graph data. GECC employs a traceable and efficient approach by performing class-wise clustering on aggregated features. Furthermore, it can inherit previous condensation results as clustering centroids when the condensed graph expands, thereby attaining an evolving capability. This methodology is supported by robust theoretical foundations and demonstrates superior empirical performance. Comprehensive experiments including real world scenario show that GECC achieves better performance than most state-of-the-art graph condensation methods while delivering an around 1000$\times$ speedup on large datasets.
- Abstract(参考訳): グラフデータの急速な成長は、ほとんどのグラフアルゴリズムが2倍にスケールするにつれて、大きなスケーラビリティの課題を生み出します。
これらの問題を緩和するために、より大きなグラフから小さなグラフを学習し、下流タスクを高速化するグラフ凝縮法(GC)が提案されている。
しかし、既存のアプローチでは、現実のグラフデータの本質的に動的で進化的な性質と矛盾する静的なトレーニングセットを重要視している。
本研究は連続グラフ凝縮のための新しいフレームワークを導入し,データストリームを処理する蒸留グラフの効率的な更新を可能にする。
この制限は、成長するトレーニングセットを凝縮する際の非効率性につながる。
本稿では,大規模かつ進化的なグラフデータを扱うために設計されたスケーラブルなグラフ凝縮法であるGECC(\underline{G}raph \underline{E}volving \underline{C}lustering \underline{C}ondensation)を紹介する。
GECCは、集約された機能でクラスワイドクラスタリングを実行することで、トレース可能で効率的なアプローチを採用している。
さらに、凝縮グラフが拡大すると、それまでの凝縮結果をクラスタリングしたセントロイドとして受け継がれ、それによって進化する能力が得られる。
この方法論は堅牢な理論基盤によって支持され、優れた経験的性能を示す。
実世界のシナリオを含む総合的な実験では、GECCは最先端のグラフ凝縮法よりも優れたパフォーマンスを実現し、大規模なデータセットで約1000$\times$のスピードアップを実現している。
関連論文リスト
- GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Graph Condensation for Open-World Graph Learning [48.38802327346445]
グラフ凝縮(GC)は、グラフニューラルネットワーク(GNN)を効率的に訓練するための有望な加速ソリューションとして登場した。
既存のGCメソッドは、単に観測された静的グラフ分布と凝縮グラフの整合性に制限される。
しかし、現実のシナリオでは、グラフは動的で常に進化しており、新しいノードとエッジが継続的に統合されている。
グラフパターンの進化をシミュレートするために構造対応分散シフトを統合する,堅牢なGCフレームワークであるOpenGCを提案する。
論文 参考訳(メタデータ) (2024-05-27T09:47:09Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Two Trades is not Baffled: Condensing Graph via Crafting Rational Gradient Matching [50.30124426442228]
大規模グラフの学習はグラフ表現学習において顕著な成果を上げてきたが、そのコストと記憶力の増大が懸念されている。
そこで我々は,textbfCraftextbfTing textbfRationatextbf (textbfCTRL) という新しいグラフ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:49:10Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。