論文の概要: Towards Pre-trained Graph Condensation via Optimal Transport
- arxiv url: http://arxiv.org/abs/2509.14722v1
- Date: Thu, 18 Sep 2025 08:13:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.116638
- Title: Towards Pre-trained Graph Condensation via Optimal Transport
- Title(参考訳): 最適輸送による事前学習グラフ凝縮に向けて
- Authors: Yeyu Yan, Shuai Zheng, Wenjun Hui, Xiangkai Zhu, Dong Chen, Zhenfeng Zhu, Yao Zhao, Kunlun He,
- Abstract要約: グラフ凝縮は、元のグラフを小さなグラフに蒸留し、冗長性を緩和し、GNNトレーニングを加速することを目的としている。
従来のGCアプローチは、厳格なGNNとタスク固有の監督に大きく依存している。
タスク依存GC法とアーキテクチャ依存GC法の限界を超越するために, 最適輸送による事前学習グラフ凝縮(PreGC)を提案する。
- 参考スコア(独自算出の注目度): 52.6504753271008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph condensation (GC) aims to distill the original graph into a small-scale graph, mitigating redundancy and accelerating GNN training. However, conventional GC approaches heavily rely on rigid GNNs and task-specific supervision. Such a dependency severely restricts their reusability and generalization across various tasks and architectures. In this work, we revisit the goal of ideal GC from the perspective of GNN optimization consistency, and then a generalized GC optimization objective is derived, by which those traditional GC methods can be viewed nicely as special cases of this optimization paradigm. Based on this, Pre-trained Graph Condensation (PreGC) via optimal transport is proposed to transcend the limitations of task- and architecture-dependent GC methods. Specifically, a hybrid-interval graph diffusion augmentation is presented to suppress the weak generalization ability of the condensed graph on particular architectures by enhancing the uncertainty of node states. Meanwhile, the matching between optimal graph transport plan and representation transport plan is tactfully established to maintain semantic consistencies across source graph and condensed graph spaces, thereby freeing graph condensation from task dependencies. To further facilitate the adaptation of condensed graphs to various downstream tasks, a traceable semantic harmonizer from source nodes to condensed nodes is proposed to bridge semantic associations through the optimized representation transport plan in pre-training. Extensive experiments verify the superiority and versatility of PreGC, demonstrating its task-independent nature and seamless compatibility with arbitrary GNNs.
- Abstract(参考訳): グラフ凝縮(GC)は、元のグラフを小さなグラフに蒸留し、冗長性を緩和し、GNNトレーニングを加速することを目的としている。
しかし、従来のGCアプローチは厳格なGNNとタスク固有の監督に大きく依存している。
このような依存関係は、さまざまなタスクやアーキテクチャにおける再利用性と一般化を厳しく制限する。
本稿では,GNN最適化の整合性の観点から,理想的なGCの目標を再考し,汎用的なGC最適化目標を導出する。
これに基づいて、タスクおよびアーキテクチャに依存したGCメソッドの制限を超越するために、最適なトランスポートによる事前学習グラフ凝縮(PreGC)を提案する。
具体的には、ノード状態の不確実性を高めて、凝縮グラフの特定のアーキテクチャ上の弱一般化能力を抑えるために、ハイブリッド-インターバルグラフ拡散拡張を示す。
一方、最適なグラフ転送計画と表現転送計画とのマッチングは、ソースグラフと凝縮グラフ空間のセマンティックな相補性を維持するため、タスク依存からグラフの凝縮を解放するために確立されている。
様々な下流タスクへの凝縮グラフの適応を容易にするため,事前学習において最適化された表現伝達計画を通じて,ソースノードから凝縮ノードへのトレーサブルなセマンティックハーモナイザを提案し,セマンティックアソシエーションをブリッジする。
広範囲な実験はPreGCの優越性と汎用性を検証し、タスクに依存しない性質と任意のGNNとのシームレスな互換性を示す。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Graph Condensation for Open-World Graph Learning [48.38802327346445]
グラフ凝縮(GC)は、グラフニューラルネットワーク(GNN)を効率的に訓練するための有望な加速ソリューションとして登場した。
既存のGCメソッドは、単に観測された静的グラフ分布と凝縮グラフの整合性に制限される。
しかし、現実のシナリオでは、グラフは動的で常に進化しており、新しいノードとエッジが継続的に統合されている。
グラフパターンの進化をシミュレートするために構造対応分散シフトを統合する,堅牢なGCフレームワークであるOpenGCを提案する。
論文 参考訳(メタデータ) (2024-05-27T09:47:09Z) - Rethinking and Accelerating Graph Condensation: A Training-Free Approach with Class Partition [49.41718583061147]
グラフ凝縮(Graph condensation)は、大きなグラフを小さいが情報的な凝縮グラフに置き換えるための、データ中心のソリューションである。
既存のGCメソッドは、複雑な最適化プロセス、過剰なコンピューティングリソースとトレーニング時間を必要とする。
我々は、CGC(Class-partitioned Graph Condensation)と呼ばれるトレーニング不要なGCフレームワークを提案する。
CGCはOgbn-productsグラフを30秒以内に凝縮し、102$Xから104$Xまでのスピードアップを実現し、精度は4.2%まで向上した。
論文 参考訳(メタデータ) (2024-05-22T14:57:09Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Disentangled Condensation for Large-scale Graphs [29.384060761810172]
グラフニューラルネットワーク(GNN)の高価なトレーニングコストを節約するための興味深いテクニックとして、グラフ凝縮が登場した。
本稿では, 凝縮過程を2段階のGNNフリーパラダイムに分解し, ノードを独立に凝縮し, エッジを生成することを提案する。
この単純で効果的なアプローチは、中規模グラフの精度に匹敵する精度で最先端の手法よりも少なくとも10倍早く達成できる。
論文 参考訳(メタデータ) (2024-01-18T09:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。