論文の概要: Training-free Heterogeneous Graph Condensation via Data Selection
- arxiv url: http://arxiv.org/abs/2412.16250v1
- Date: Fri, 20 Dec 2024 02:49:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:57:15.003152
- Title: Training-free Heterogeneous Graph Condensation via Data Selection
- Title(参考訳): データ選択による無訓練不均一グラフ凝縮
- Authors: Yuxuan Liang, Wentao Zhang, Xinyi Gao, Ling Yang, Chong Chen, Hongzhi Yin, Yunhai Tong, Bin Cui,
- Abstract要約: 本稿では, 高速かつ高品質な不均質凝縮グラフ生成を容易にする, FreeHGC と呼ばれる, 基礎となる不均質グラフ凝縮法について紹介する。
具体的には、不均質グラフの凝縮問題をデータ選択問題として再構成し、不均質グラフにおける代表ノードとエッジを評価し、凝縮するための新たな視点を提供する。
- 参考スコア(独自算出の注目度): 74.06562124781104
- License:
- Abstract: Efficient training of large-scale heterogeneous graphs is of paramount importance in real-world applications. However, existing approaches typically explore simplified models to mitigate resource and time overhead, neglecting the crucial aspect of simplifying large-scale heterogeneous graphs from the data-centric perspective. Addressing this gap, HGCond introduces graph condensation (GC) in heterogeneous graphs and generates a small condensed graph for efficient model training. Despite its efficacy in graph generation, HGCond encounters two significant limitations. The first is low effectiveness, HGCond excessively relies on the simplest relay model for the condensation procedure, which restricts the ability to exert powerful Heterogeneous Graph Neural Networks (HGNNs) with flexible condensation ratio and limits the generalization ability. The second is low efficiency, HGCond follows the existing GC methods designed for homogeneous graphs and leverages the sophisticated optimization paradigm, resulting in a time-consuming condensing procedure. In light of these challenges, we present the first Training \underline{Free} Heterogeneous Graph Condensation method, termed FreeHGC, facilitating both efficient and high-quality generation of heterogeneous condensed graphs. Specifically, we reformulate the heterogeneous graph condensation problem as a data selection issue, offering a new perspective for assessing and condensing representative nodes and edges in the heterogeneous graphs. By leveraging rich meta-paths, we introduce a new, high-quality heterogeneous data selection criterion to select target-type nodes. Furthermore, two training-free condensation strategies for heterogeneous graphs are designed to condense and synthesize other-types nodes effectively.
- Abstract(参考訳): 大規模不均一グラフの効率的な訓練は、実世界の応用において最重要となる。
しかし、既存のアプローチは通常、リソースと時間のオーバーヘッドを軽減するために単純化されたモデルを探求し、データ中心の観点から大規模な異種グラフを単純化する重要な側面を無視している。
このギャップに対処するため、HGCondはヘテロジニアスグラフにグラフ凝縮(GC)を導入し、効率的なモデルトレーニングのための小さな凝縮グラフを生成する。
グラフ生成の有効性にもかかわらず、HGCondには2つの重要な制限がある。
第一に、HGCondは、柔軟凝縮比で強力なヘテロジニアスグラフニューラルネットワーク(HGNN)を実行する能力を制限し、一般化能力を制限する、縮合手順の最も単純なリレーモデルに過度に依存している。
2つ目は低効率であり、HGCondは同質グラフ用に設計された既存のGCメソッドに従い、洗練された最適化パラダイムを活用し、時間を要する凝縮処理を行う。
これらの課題を踏まえて, 高速かつ高品質な不均質凝縮グラフ生成を容易にする, FreeHGC と呼ばれる最初のトレーニング付き不均質グラフ凝縮法を提案する。
具体的には、不均質グラフの凝縮問題をデータ選択問題として再構成し、不均質グラフにおける代表ノードとエッジを評価し、凝縮するための新たな視点を提供する。
リッチなメタパスを活用することで、ターゲット型ノードを選択するために、新しい高品質な異種データ選択基準を導入する。
さらに、不均一グラフに対する2つの訓練自由凝縮戦略は、他のタイプのノードを効果的に凝縮し、合成するように設計されている。
関連論文リスト
- Rethinking and Accelerating Graph Condensation: A Training-Free Approach with Class Partition [56.26113670151363]
グラフ凝縮(Graph condensation)は、大きなグラフを小さいが情報的な凝縮グラフに置き換えるための、データ中心のソリューションである。
既存のGCメソッドは複雑な最適化プロセスに悩まされており、過剰な計算資源を必要とする。
我々は、CGC(Class-partitioned Graph Condensation)と呼ばれるトレーニング不要なGCフレームワークを提案する。
CGCはより効率的な凝縮プロセスで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-05-22T14:57:09Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Disentangled Condensation for Large-scale Graphs [31.781721873508978]
グラフニューラルネットワーク(GNN)の高価なトレーニングコストを節約するための興味深いテクニックとして、グラフ凝縮が登場した。
本稿では, 凝縮過程を2段階のGNNフリーパラダイムに分解し, ノードを独立に凝縮し, エッジを生成することを提案する。
この単純で効果的なアプローチは、中規模グラフの精度に匹敵する精度で最先端の手法よりも少なくとも10倍早く達成できる。
論文 参考訳(メタデータ) (2024-01-18T09:59:00Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Hybrid Micro/Macro Level Convolution for Heterogeneous Graph Learning [45.14314180743549]
不均一グラフは、各グラフが複数の種類のノードとエッジから構成される現実的なシナリオで広く普及する。
既存のグラフ畳み込みアプローチのほとんどは均質グラフ用に設計されており、したがって異種グラフを扱うことはできない。
ヘテロジニアスグラフ上の包括的ノード表現を学習するための新しいヘテロジニアスグラフ畳み込み手法であるHGConvを提案する。
論文 参考訳(メタデータ) (2020-12-29T12:12:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。