論文の概要: HGC-Herd: Efficient Heterogeneous Graph Condensation via Representative Node Herding
- arxiv url: http://arxiv.org/abs/2512.09947v1
- Date: Mon, 08 Dec 2025 09:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:41.982632
- Title: HGC-Herd: Efficient Heterogeneous Graph Condensation via Representative Node Herding
- Title(参考訳): HGC-Herd:適応ノードヘルディングによる高効率不均一グラフ凝縮
- Authors: Fuyan Ou, Siqi Ai, Yulin Hu,
- Abstract要約: ヘテロジニアスグラフニューラルネットワーク(HGNN)は、多型ノード間の複雑なセマンティクスや関係をモデル化する強力な能力を示している。
HGC-Herdは、コンパクトだが情報に富む異種グラフを生成する訓練不要な凝縮フレームワークである。
ACM、DBLP、Freebaseに関する大規模な実験により、HGC-Herdはフルグラフトレーニングに匹敵するあるいは優れた精度が得られることが確認された。
- 参考スコア(独自算出の注目度): 17.632566656960673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous graph neural networks (HGNNs) have demonstrated strong capability in modeling complex semantics across multi-type nodes and relations. However, their scalability to large-scale graphs remains challenging due to structural redundancy and high-dimensional node features. Existing graph condensation approaches, such as GCond, are primarily developed for homogeneous graphs and rely on gradient matching, resulting in considerable computational, memory, and optimization overhead. We propose HGC-Herd, a training-free condensation framework that generates compact yet informative heterogeneous graphs while maintaining both semantic and structural fidelity. HGC-Herd integrates lightweight feature propagation to encode multi-hop relational context and employs a class-wise herding mechanism to identify representative nodes per class, producing balanced and discriminative subsets for downstream learning tasks. Extensive experiments on ACM, DBLP, and Freebase validate that HGC-Herd attains comparable or superior accuracy to full-graph training while markedly reducing both runtime and memory consumption. These results underscore its practical value for efficient and scalable heterogeneous graph representation learning.
- Abstract(参考訳): ヘテロジニアスグラフニューラルネットワーク(HGNN)は、多型ノード間の複雑なセマンティクスや関係をモデル化する強力な能力を示している。
しかし、その大規模グラフへのスケーラビリティは、構造的冗長性と高次元ノードの特徴のため、依然として困難である。
GCondのような既存のグラフ凝縮法は、主に均質なグラフのために開発され、勾配マッチングに依存しており、計算、メモリ、最適化のオーバーヘッドがかなり大きい。
本稿では,HGC-Herdを提案する。HGC-Herdは,意味的および構造的忠実性を維持しつつ,コンパクトで情報に富む不均一なグラフを生成する,学習自由な凝縮フレームワークである。
HGC-Herdは、マルチホップリレーショナルコンテキストをエンコードするための軽量な機能伝搬を統合し、クラス毎に代表ノードを識別するクラスワイド・シーディング機構を使用して、下流学習タスクのためのバランスと差別的なサブセットを生成する。
ACM、DBLP、Freebaseに関する大規模な実験により、HGC-Herdはフルグラフトレーニングと同等または優れた精度で実行時とメモリ消費の両方を著しく削減できることを確認した。
これらの結果は、効率的でスケーラブルな異種グラフ表現学習の実践的価値を裏付けるものである。
関連論文リスト
- Simple yet Effective Graph Distillation via Clustering [2.6217304977339473]
グラフデータ蒸留(GDD)は、大きなグラフをコンパクトで情報的なものに蒸留しようとするものである。
ClustGDDは、高速で理論的なクラスタリングを通じて、凝縮グラフとノード属性を合成する。
ClustGDDは、ノード分類の観点から、最先端のGDDメソッドよりも優れた、あるいは同等のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2025-05-27T07:13:10Z) - Adaptive Homophily Clustering: Structure Homophily Graph Learning with Adaptive Filter for Hyperspectral Image [21.709368882043897]
ハイパースペクトル画像(HSI)クラスタリングは、ゼロトレーニングラベルによる基本的だが難しい課題である。
本稿では,HSIのための適応フィルタクラスタリング法(AHSGC)を用いたホモフィリ構造グラフ学習を提案する。
AHSGCには高いクラスタリング精度、低い計算複雑性、強い堅牢性が含まれています。
論文 参考訳(メタデータ) (2025-01-03T01:54:16Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Training-free Heterogeneous Graph Condensation via Data Selection [74.06562124781104]
本稿では, 高速かつ高品質な不均質凝縮グラフ生成を容易にする, FreeHGC と呼ばれる, 基礎となる不均質グラフ凝縮法について紹介する。
具体的には、不均質グラフの凝縮問題をデータ選択問題として再構成し、不均質グラフにおける代表ノードとエッジを評価し、凝縮するための新たな視点を提供する。
論文 参考訳(メタデータ) (2024-12-20T02:49:32Z) - Synergistic Deep Graph Clustering Network [14.569867830074292]
我々はSynC(Syngistic Deep Graph Clustering Network)というグラフクラスタリングフレームワークを提案する。
本稿では,構造拡張を導くための高品質な埋め込みを実現するために,TIGAE (Transform Input Graph Auto-Encoder) を設計する。
特に、表現学習と構造増強は重みを共有し、モデルパラメータの数を著しく減少させる。
論文 参考訳(メタデータ) (2024-06-22T09:40:34Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Towards Relation-centered Pooling and Convolution for Heterogeneous
Graph Learning Networks [11.421162988355146]
不均一グラフニューラルネットワークは,グラフ表現学習において大きな可能性を秘めている。
我々は,PC-HGNという異種グラフ学習ネットワークのための関係中心のPooling and Convolutionを設計し,関係固有サンプリングと相互関係の畳み込みを実現する。
実世界の3つのデータセットにおける最先端グラフ学習モデルとの比較により,提案モデルの性能評価を行った。
論文 参考訳(メタデータ) (2022-10-31T08:43:32Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。