論文の概要: Disentangled Condensation for Large-scale Graphs
- arxiv url: http://arxiv.org/abs/2401.12231v1
- Date: Thu, 18 Jan 2024 09:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:42:26.489797
- Title: Disentangled Condensation for Large-scale Graphs
- Title(参考訳): 大規模グラフに対する遠絡縮合
- Authors: Zhenbang Xiao, Shunyu Liu, Yu Wang, Tongya Zheng, Mingli Song
- Abstract要約: 本稿では,異なるサイズのグラフに対してスケーラブルなグラフ凝縮を実現するために,大規模グラフに対する分散凝縮(Disentangled Condensation)を提案する。
DisCoは1億以上のノードと10億のエッジを持つogbn-papers100Mグラフに、フレキシブルな削減レートでスケールアップすることができる。
- 参考スコア(独自算出の注目度): 34.0968917267551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph condensation has emerged as an intriguing technique to provide Graph
Neural Networks for large-scale graphs with a more compact yet informative
small graph to save the expensive costs of large-scale graph learning. Despite
the promising results achieved, previous graph condensation methods often
employ an entangled condensation strategy that involves condensing nodes and
edges simultaneously, leading to substantial GPU memory demands. This entangled
strategy has considerably impeded the scalability of graph condensation,
impairing its capability to condense extremely large-scale graphs and produce
condensed graphs with high fidelity. Therefore, this paper presents
Disentangled Condensation for large-scale graphs, abbreviated as DisCo, to
provide scalable graph condensation for graphs of varying sizes. At the heart
of DisCo are two complementary components, namely node and edge condensation
modules, that realize the condensation of nodes and edges in a disentangled
manner. In the node condensation module, we focus on synthesizing condensed
nodes that exhibit a similar node feature distribution to original nodes using
a pre-trained node classification model while incorporating class centroid
alignment and anchor attachment regularizers. After node condensation, in the
edge condensation module, we preserve the topology structure by transferring
the link prediction model of the original graph to the condensed nodes,
generating the corresponding condensed edges. Based on the disentangled
strategy, the proposed DisCo can successfully scale up to the ogbn-papers100M
graph with over 100 million nodes and 1 billion edges with flexible reduction
rates. Extensive experiments on five common datasets further demonstrate that
the proposed DisCo yields results superior to state-of-the-art counterparts by
a significant margin. The source code is available at
https://github.com/BangHonor/DisCo.
- Abstract(参考訳): グラフの凝縮は、グラフ学習のコストを抑えるために、よりコンパクトで情報性の高い小さなグラフでグラフニューラルネットワークを大規模グラフに提供するための興味深い技術として登場した。
有望な結果が得られたにもかかわらず、従来のグラフ凝縮法は、ノードとエッジを同時に凝縮することを伴う絡み合った凝縮戦略を用いることが多い。
この絡み合った戦略はグラフ凝縮のスケーラビリティを著しく阻害し、非常に大規模なグラフを凝縮し、忠実度の高い凝縮グラフを生成する能力が損なわれた。
そこで本稿では,DisCoと略される大規模グラフに対するDistangled Condensationを提案し,様々なサイズのグラフに対してスケーラブルなグラフ凝縮を提供する。
discoの中心には、ノードとエッジの凝縮を実現するノードとエッジの凝縮モジュールという、2つの補完的なコンポーネントがある。
ノード凝縮モジュールでは,プリトレーニングされたノード分類モデルを用いて,元のノードに類似したノード特徴分布を示す凝縮ノードを合成し,クラスセントロイドアライメントとアンカーアタッチ正規化器を組み込む。
ノード凝縮後、エッジ凝縮モジュールにおいて、元のグラフのリンク予測モデルを凝縮ノードに転送し、対応する凝縮エッジを生成することによりトポロジ構造を保存する。
この戦略に基づいて、提案されているディスコは1億以上のノードと10億のエッジを持つogbn-papers100mグラフに柔軟にスケールできる。
5つの共通のデータセットに対する大規模な実験により、提案されたDisCoは、最先端のデータセットよりも大きなマージンで結果を得ることを示した。
ソースコードはhttps://github.com/BangHonor/DisCo.comで入手できる。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Graph Condensation for Open-World Graph Learning [48.38802327346445]
グラフ凝縮(GC)は、グラフニューラルネットワーク(GNN)を効率的に訓練するための有望な加速ソリューションとして登場した。
既存のGCメソッドは、単に観測された静的グラフ分布と凝縮グラフの整合性に制限される。
しかし、現実のシナリオでは、グラフは動的で常に進化しており、新しいノードとエッジが継続的に統合されている。
グラフパターンの進化をシミュレートするために構造対応分散シフトを統合する,堅牢なGCフレームワークであるOpenGCを提案する。
論文 参考訳(メタデータ) (2024-05-27T09:47:09Z) - Rethinking and Accelerating Graph Condensation: A Training-Free Approach with Class Partition [56.26113670151363]
グラフ凝縮(Graph condensation)は、大きなグラフを小さいが情報的な凝縮グラフに置き換えるための、データ中心のソリューションである。
既存のGCメソッドは複雑な最適化プロセスに悩まされており、過剰な計算資源を必要とする。
我々は、CGC(Class-partitioned Graph Condensation)と呼ばれるトレーニング不要なGCフレームワークを提案する。
CGCはより効率的な凝縮プロセスで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-05-22T14:57:09Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。