論文の概要: Simple yet Effective Graph Distillation via Clustering
- arxiv url: http://arxiv.org/abs/2505.20807v1
- Date: Tue, 27 May 2025 07:13:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.463794
- Title: Simple yet Effective Graph Distillation via Clustering
- Title(参考訳): クラスタリングによる簡易かつ効果的なグラフ蒸留
- Authors: Yurui Lai, Taiyan Zhang, Renchi Yang,
- Abstract要約: グラフデータ蒸留(GDD)は、大きなグラフをコンパクトで情報的なものに蒸留しようとするものである。
ClustGDDは、高速で理論的なクラスタリングを通じて、凝縮グラフとノード属性を合成する。
ClustGDDは、ノード分類の観点から、最先端のGDDメソッドよりも優れた、あるいは同等のパフォーマンスを一貫して達成する。
- 参考スコア(独自算出の注目度): 2.6217304977339473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite plentiful successes achieved by graph representation learning in various domains, the training of graph neural networks (GNNs) still remains tenaciously challenging due to the tremendous computational overhead needed for sizable graphs in practice. Recently, graph data distillation (GDD), which seeks to distill large graphs into compact and informative ones, has emerged as a promising technique to enable efficient GNN training. However, most existing GDD works rely on heuristics that align model gradients or representation distributions on condensed and original graphs, leading to compromised result quality, expensive training for distilling large graphs, or both. Motivated by this, this paper presents an efficient and effective GDD approach, ClustGDD. Under the hood, ClustGDD resorts to synthesizing the condensed graph and node attributes through fast and theoretically-grounded clustering that minimizes the within-cluster sum of squares and maximizes the homophily on the original graph. The fundamental idea is inspired by our empirical and theoretical findings unveiling the connection between clustering and empirical condensation quality using Fr\'echet Inception Distance, a well-known quality metric for synthetic images. Furthermore, to mitigate the adverse effects caused by the homophily-based clustering, ClustGDD refines the nodal attributes of the condensed graph with a small augmentation learned via class-aware graph sampling and consistency loss. Our extensive experiments exhibit that GNNs trained over condensed graphs output by ClustGDD consistently achieve superior or comparable performance to state-of-the-art GDD methods in terms of node classification on five benchmark datasets, while being orders of magnitude faster.
- Abstract(参考訳): グラフ表現学習によって様々な領域で成功したにもかかわらず、グラフニューラルネットワーク(GNN)のトレーニングは、実際には巨大なグラフに必要な膨大な計算オーバーヘッドのため、依然として極めて困難である。
近年, グラフデータ蒸留 (GDD) は, 大規模グラフをコンパクトかつ情報的なものに蒸留し, 効率的なGNN訓練を実現するための有望な手法として出現している。
しかし、既存のGDDのほとんどの研究は、縮合されたグラフと原グラフのモデル勾配や表現分布を整列するヒューリスティックに依存しており、結果として結果の品質が損なわれ、大きなグラフを蒸留するための高価な訓練がもたらされた。
そこで本研究では,効率的なGDD手法であるClustGDDを提案する。
内部では、ClustGDD は凝縮グラフとノード属性を高速で理論的に基底的なクラスタリングによって合成し、正方形の内積を最小化し、元のグラフ上でホモフィリーを最大化する。
Fr'echet Inception Distance(合成画像の品質指標)を用いて、クラスタリングと経験的凝縮品質の関連を明らかにする経験的および理論的知見から着想を得た。
さらに, ホモフィリクラスタリングによる悪影響を軽減するため, ClustGDDは, クラス認識グラフサンプリングと整合性損失を通じて学習した小さな拡張により, 凝縮グラフの結節特性を改良する。
ClustGDDが出力する凝縮グラフよりも訓練されたGNNは、5つのベンチマークデータセット上のノード分類において、最先端のGDD手法よりも優れた、あるいは同等のパフォーマンスを確実に達成し、桁違いに高速であることを示す。
関連論文リスト
- Diffusion on Graph: Augmentation of Graph Structure for Node Classification [7.9233221247736205]
グラフニューラルネットワーク(GNN)の性能を高めるために合成グラフ構造を生成するグラフ拡散(DoG)を提案する。
DoGによって生成された合成グラフ構造は、元のグラフと組み合わせて、ノードレベルの学習タスクのトレーニングのための拡張グラフを形成する。
合成グラフ構造によるノイズの悪影響を軽減するために,低ランク正規化法を提案する。
論文 参考訳(メタデータ) (2025-03-16T16:39:25Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。