論文の概要: Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers
- arxiv url: http://arxiv.org/abs/2110.07029v1
- Date: Wed, 13 Oct 2021 20:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 15:10:53.878464
- Title: Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers
- Title(参考訳): 異種マルチgpuサーバ上でのスパース深層学習のための適応的弾性トレーニング
- Authors: Yujing Ma, Florin Rusu, Kesheng Wu, Alexander Sim
- Abstract要約: 本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
- 参考スコア(独自算出の注目度): 65.60007071024629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by extreme multi-label classification applications, we consider
training deep learning models over sparse data in multi-GPU servers. The
variance in the number of non-zero features across training batches and the
intrinsic GPU heterogeneity combine to limit accuracy and increase the time to
convergence. We address these challenges with Adaptive SGD, an adaptive elastic
model averaging stochastic gradient descent algorithm for heterogeneous
multi-GPUs that is characterized by dynamic scheduling, adaptive batch size
scaling, and normalized model merging. Instead of statically partitioning
batches to GPUs, batches are routed based on the relative processing speed.
Batch size scaling assigns larger batches to the faster GPUs and smaller
batches to the slower ones, with the goal to arrive at a steady state in which
all the GPUs perform the same number of model updates. Normalized model merging
computes optimal weights for every GPU based on the assigned batches such that
the combined model achieves better accuracy. We show experimentally that
Adaptive SGD outperforms four state-of-the-art solutions in time-to-accuracy
and is scalable with the number of GPUs.
- Abstract(参考訳): 極端なマルチラベル分類アプリケーションによって動機付けられ,マルチGPUサーバにおけるスパースデータよりも深層学習モデルを訓練することを検討する。
トレーニングバッチ間の非ゼロ機能数と固有のGPUの不均一性の違いは、精度を制限し、収束時間を増やすために組み合わせられる。
本稿では, 動的スケジューリング, 適応バッチサイズスケーリング, 正規化モデルマージを特徴とする異種マルチGPUに対する適応弾性モデル平均確率勾配勾配アルゴリズムであるAdaptive SGDを提案する。
バッチをGPUに静的に分割する代わりに、バッチは相対的な処理速度に基づいてルーティングされる。
バッチサイズスケーリングは、より高速なGPUにより大きなバッチを割り当て、より遅いGPUに小さなバッチを割り当てる。
正規化されたモデルマージは、割り当てられたバッチに基づいて各GPUの最適な重みを計算する。
実験により、Adaptive SGDは4つの最先端ソリューションを時間と精度で上回り、GPUの数でスケーラブルであることを示す。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Deep Optimizer States: Towards Scalable Training of Transformer Models Using Interleaved Offloading [2.8231000588510757]
トランスフォーマーと大規模言語モデル(LLM)は、すべてのドメインで急速に採用されている。
変圧器の訓練は非常に高価で、しばしば記憶壁にぶつかる」
本稿では,LLMをCPUまたはGPU上で更新フェーズをスケジュールしたサブグループに分割する手法を提案する。
論文 参考訳(メタデータ) (2024-10-26T00:43:59Z) - Implementation and Analysis of GPU Algorithms for Vecchia Approximation [0.8057006406834466]
Vecchia Approximationは計算複雑性を減らすために広く使われており、恥ずかしい並列アルゴリズムで計算することができる。
Vecchia Approximationのためにマルチコアソフトウェアが開発されたが、グラフィックス処理ユニット(GPU)上で動作するように設計されたソフトウェアは不足している。
我々の新しい手法は他の2つより優れており、GpGpU Rパッケージに表示されます。
論文 参考訳(メタデータ) (2024-07-03T01:24:44Z) - Distributed Extra-gradient with Optimal Complexity and Communication
Guarantees [60.571030754252824]
複数のプロセッサ/ワーカー/クライアントがローカルなデュアルベクトルにアクセス可能なマルチGPU設定において、モノトン変分不等式(VI)問題を考察する。
モノトーンVI問題に対するデファクトアルゴリズムであるExtra-gradientは、通信効率が良くないように設計されている。
そこで本稿では,VI の解法に適した非バイアスで適応的な圧縮手法である量子化一般化外部勾配 (Q-GenX) を提案する。
論文 参考訳(メタデータ) (2023-08-17T21:15:04Z) - DistTGL: Distributed Memory-Based Temporal Graph Neural Network Training [18.52206409432894]
DistTGLは、分散GPUクラスタ上でメモリベースのTGNNをトレーニングするための、効率的でスケーラブルなソリューションである。
実験では、DistTGLはほぼ直線収束のスピードアップを実現し、最先端のシングルマシン法を14.5%、トレーニングスループットは10.17倍に向上した。
論文 参考訳(メタデータ) (2023-07-14T22:52:27Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - GPU-Accelerated Primal Learning for Extremely Fast Large-Scale
Classification [10.66048003460524]
ロジスティック回帰や線形サポートベクターマシン(SVM)分類などのL2正規化原始問題を解く最も効率的な方法の1つは、広く使われている信頼領域ニュートンアルゴリズムであるTRONである。
我々は、GPU最適化の法則を用いて、異なる損失と特徴表現に対するTRONトレーニング時間を劇的に短縮できることを示した。
論文 参考訳(メタデータ) (2020-08-08T03:40:27Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。