論文の概要: Entropy Aware Training for Fast and Accurate Distributed GNN
- arxiv url: http://arxiv.org/abs/2311.02399v1
- Date: Sat, 4 Nov 2023 13:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 17:41:10.938167
- Title: Entropy Aware Training for Fast and Accurate Distributed GNN
- Title(参考訳): 高速かつ高精度な分散GNNのためのエントロピーアウェアトレーニング
- Authors: Dhruv Deshmukh (1), Gagan Raj Gupta (1), Manisha Chawla (1), Vishwesh
Jatala (1), Anirban Haldar (1) ((1) Department of CSE, IIT Bhilai, India)
- Abstract要約: 数十億のグラフ上でグラフニューラルネットワーク(GNN)をスケールするために、いくつかの分散フレームワークが開発されている。
トレーニング時間を短縮し、精度を向上させる技術を開発した。
当社のアルゴリズムはDistDGLフレームワーク上に実装されており,既存のトレーニング手法よりもはるかに優れたスケーリングを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several distributed frameworks have been developed to scale Graph Neural
Networks (GNNs) on billion-size graphs. On several benchmarks, we observe that
the graph partitions generated by these frameworks have heterogeneous data
distributions and class imbalance, affecting convergence, and resulting in
lower performance than centralized implementations. We holistically address
these challenges and develop techniques that reduce training time and improve
accuracy. We develop an Edge-Weighted partitioning technique to improve the
micro average F1 score (accuracy) by minimizing the total entropy. Furthermore,
we add an asynchronous personalization phase that adapts each compute-host's
model to its local data distribution. We design a class-balanced sampler that
considerably speeds up convergence. We implemented our algorithms on the
DistDGL framework and observed that our training techniques scale much better
than the existing training approach. We achieved a (2-3x) speedup in training
time and 4\% improvement on average in micro-F1 scores on 5 large graph
benchmarks compared to the standard baselines.
- Abstract(参考訳): 数十億規模のグラフ上でグラフニューラルネットワーク(gnn)をスケールするために、いくつかの分散フレームワークが開発された。
いくつかのベンチマークでは、これらのフレームワークが生成するグラフ分割が異種データ分散とクラス不均衡を持ち、コンバージェンスに影響し、集中型実装よりもパフォーマンスが低下することを観察した。
これらの課題に積極的に対処し、トレーニング時間を短縮し、精度を向上するテクニックを開発します。
我々は,全エントロピーを最小化して,マイクロ平均F1スコア(精度)を改善するためにエッジ重み分割法を開発した。
さらに、各計算ホストのモデルをローカルデータ分布に適応させる非同期パーソナライズフェーズを追加します。
我々は,収束をかなりスピードアップするクラスバランススプリマーを設計した。
アルゴリズムをDistDGLフレームワーク上に実装し、既存のトレーニング手法よりもはるかに優れたスケーリングを実現することを観察した。
トレーニング時間では2~3倍のスピードアップを達成し,標準ベースラインと比較して5つのグラフベンチマークでマイクロF1スコアの平均4倍の改善を実現した。
関連論文リスト
- MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - CDFGNN: a Systematic Design of Cache-based Distributed Full-Batch Graph Neural Network Training with Communication Reduction [7.048300785744331]
グラフニューラルネットワークトレーニングは、主にミニバッチとフルバッチのトレーニング方法に分類される。
分散クラスタでは、機能とグラデーションの頻繁なリモートアクセスが、通信オーバーヘッドを大きくします。
キャッシュベースの分散フルバッチグラフニューラルネットワークトレーニングフレームワーク(CDFGNN)を紹介する。
本結果は,CDFGNNが分散フルバッチGNNトレーニングタスクを高速化する大きな可能性を示唆している。
論文 参考訳(メタデータ) (2024-08-01T01:57:09Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - Simplifying Distributed Neural Network Training on Massive Graphs:
Randomized Partitions Improve Model Aggregation [23.018715954992352]
本稿では、前述のコスト操作に依存しない分散GNNトレーニングのための簡易フレームワークを提案する。
具体的には,トレーニンググラフの局所的に利用可能な部分の局所モデルを非同期に学習する独立したトレーナーを編成する。
最大13億エッジのソーシャルおよびeコマースネットワークの実験において、提案したRandomTMAおよびSuperTMAアプローチは、最速のベースラインと比較して最先端のパフォーマンスと2.31倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2023-05-17T01:49:44Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Distributed Optimization of Graph Convolutional Network using Subgraph
Variance [8.510726499008204]
グラフ拡張に基づく分散GCNフレームワーク(GAD)を提案する。
GADには、GAD-PartitionとGAD-rの2つの主要コンポーネントがある。
我々のフレームワークは通信オーバーヘッドを50%削減し、最先端手法と比較して収束速度(2X)と精度(0.45%)をわずかに向上させる。
論文 参考訳(メタデータ) (2021-10-06T18:01:47Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。