論文の概要: DGC: Training Dynamic Graphs with Spatio-Temporal Non-Uniformity using
Graph Partitioning by Chunks
- arxiv url: http://arxiv.org/abs/2309.03523v1
- Date: Thu, 7 Sep 2023 07:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 14:11:39.268161
- Title: DGC: Training Dynamic Graphs with Spatio-Temporal Non-Uniformity using
Graph Partitioning by Chunks
- Title(参考訳): dgc:チャンクによるグラフ分割を用いた時空間非一様性を持つ動的グラフのトレーニング
- Authors: Fahao Chen, Peng Li, Celimuge Wu
- Abstract要約: 動的グラフニューラルネットワーク(DGNN)は、空間的特徴と時間的特徴の両方を利用して動的グラフを学習する強力な能力を示している。
DGCは分散DGNNトレーニングシステムであり,テストベッドにおける最先端技術よりも1.25倍から7.52倍の高速化を実現する。
- 参考スコア(独自算出の注目度): 13.279145021338534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Graph Neural Network (DGNN) has shown a strong capability of learning
dynamic graphs by exploiting both spatial and temporal features. Although DGNN
has recently received considerable attention by AI community and various DGNN
models have been proposed, building a distributed system for efficient DGNN
training is still challenging. It has been well recognized that how to
partition the dynamic graph and assign workloads to multiple GPUs plays a
critical role in training acceleration. Existing works partition a dynamic
graph into snapshots or temporal sequences, which only work well when the graph
has uniform spatio-temporal structures. However, dynamic graphs in practice are
not uniformly structured, with some snapshots being very dense while others are
sparse. To address this issue, we propose DGC, a distributed DGNN training
system that achieves a 1.25x - 7.52x speedup over the state-of-the-art in our
testbed. DGC's success stems from a new graph partitioning method that
partitions dynamic graphs into chunks, which are essentially subgraphs with
modest training workloads and few inter connections. This partitioning
algorithm is based on graph coarsening, which can run very fast on large
graphs. In addition, DGC has a highly efficient run-time, powered by the
proposed chunk fusion and adaptive stale aggregation techniques. Extensive
experimental results on 3 typical DGNN models and 4 popular dynamic graph
datasets are presented to show the effectiveness of DGC.
- Abstract(参考訳): 動的グラフニューラルネットワーク(DGNN)は、空間的特徴と時間的特徴の両方を利用して動的グラフを学習する強力な能力を示している。
DGNNは最近、AIコミュニティからかなりの注目を集め、様々なDGNNモデルが提案されているが、効率的なDGNNトレーニングのための分散システムの構築はまだ難しい。
動的グラフを分割し、ワークロードを複数のGPUに割り当てる方法が、トレーニングアクセラレーションにおいて重要な役割を果たすことはよく知られている。
既存のワークは、動的なグラフをスナップショットまたは時間シーケンスに分割するが、これはグラフが一様時空間構造を持つ場合にのみうまく機能する。
しかし、実際には動的グラフは均一に構造化されておらず、スナップショットの中には非常に密度が高いものもあれば、疎いものもある。
この問題に対処するため,テストベッドにおける最先端技術よりも1.25倍から7.52倍の高速化を実現する分散DGNNトレーニングシステムDGCを提案する。
dgcの成功は、動的グラフをチャンクに分割する新しいグラフ分割法に起因している。
この分割アルゴリズムはグラフ粗化に基づいており、大きなグラフ上で非常に高速に実行できる。
さらに、DGCは、提案したチャンク融合とアダプティブステールアグリゲーション技術を利用して、非常に効率的な実行時間を持つ。
DGCの有効性を示すために、3つの典型的なDGNNモデルと4つの人気のある動的グラフデータセットに関する大規模な実験結果を示す。
関連論文リスト
- Graph Retention Networks for Dynamic Graphs [4.4053348026380235]
動的グラフの深層学習のための統合アーキテクチャとしてグラフ保持ネットワークを提案する。
GRNは、グラフ保持としての動的グラフデータに対して、コア計算の保持方法を拡張している。
ベンチマークデータセットを用いて行った実験は、エッジレベルの予測とノードレベルの分類タスクの両方において、GRNの優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-18T03:28:11Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - GNNFlow: A Distributed Framework for Continuous Temporal GNN Learning on
Dynamic Graphs [11.302970701867844]
本稿では,効率的な時間的グラフ表現学習のための分散フレームワークであるGNNFlowを紹介する。
GNNFlowは、負荷バランスを確保するために、静的スケジューリングを備えた複数のマシンでの分散トレーニングをサポートする。
実験の結果,GNNFlowは既存のシステムに比べて最大21.1倍高速な継続的学習を実現することがわかった。
論文 参考訳(メタデータ) (2023-11-29T07:30:32Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - Decoupled Graph Neural Networks for Large Dynamic Graphs [14.635923016087503]
大規模動的グラフのための疎結合グラフニューラルネットワークを提案する。
このアルゴリズムは,両種類の動的グラフにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-05-14T23:00:10Z) - Dynamic Graph Node Classification via Time Augmentation [15.580277876084873]
動的グラフ上のノード分類のための時間拡張グラフ動的ニューラルネットワーク(TADGNN)フレームワークを提案する。
TADGNNは, 時間的時間的変化を時間的に捉え, 時間的時間的グラフを生成する時間拡張モジュールと, 構築した時間的時間的グラフを用いて時間的時間的表現を学習する情報伝達モジュールの2つのモジュールから構成される。
実験により,TADGNNフレームワークは,高いスケーラビリティを示しながら,静的かつ動的なSOTAGNNモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-12-07T04:13:23Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。