論文の概要: CD-GraB: Coordinating Distributed Example Orders for Provably
Accelerated Training
- arxiv url: http://arxiv.org/abs/2302.00845v3
- Date: Mon, 29 May 2023 22:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 01:49:37.959274
- Title: CD-GraB: Coordinating Distributed Example Orders for Provably
Accelerated Training
- Title(参考訳): CD-GraB: 加速トレーニングのための分散サンプルオーダーの調整
- Authors: A. Feder Cooper, Wentao Guo, Khiem Pham, Tiancheng Yuan, Charlie F.
Ruan, Yucheng Lu, Christopher De Sa
- Abstract要約: 本稿では,分散環境に順応する置換型例の利点を変換するために,CD-GraB(Coordinated Distributed GraB)を提案する。
無視可能なオーバーヘッドでは、CD-GraBは集中型GraBよりも直線的な収束速度の向上を示し、ベースラインを経験的に上回る。
- 参考スコア(独自算出の注目度): 30.37667847227027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research on online Gradient Balancing (GraB) has revealed that there
exist permutation-based example orderings that are guaranteed to outperform
random reshuffling (RR). Whereas RR arbitrarily permutes training examples,
GraB leverages stale gradients from prior epochs to order examples -- achieving
a provably faster convergence rate than RR. However, GraB is limited by design:
While it demonstrates an impressive ability to scale-up training on centralized
data, it does not naturally extend to modern distributed ML workloads. We
therefore propose Coordinated Distributed GraB (CD-GraB), which uses insights
from prior work on kernel thinning to translate the benefits of provably faster
permutation-based example ordering to distributed settings. With negligible
overhead, CD-GraB exhibits a linear speedup in convergence rate over
centralized GraB and outperforms baselines empirically, including distributed
RR, on a variety of benchmark tasks.
- Abstract(参考訳): オンライングラディエント・バランシング(GraB)に関する最近の研究は、ランダム・リシャッフル(RR)に勝ることを保証する置換に基づく例順が存在することを明らかにした。
RRはトレーニングの例を任意に置換するが、GraBは以前のエポックから古い勾配を利用してサンプルを順序付けする。
しかし、GraBは設計によって制限されている: 集中型データのトレーニングをスケールアップする印象的な能力を示しているが、現代の分散MLワークロードに自然に拡張するわけではない。
そこで本研究では,カーネルの薄型化に関する先行研究から得られた知見をもとに,分散設定への変換を高速化するCoordinated Distributed GraB(CD-GraB)を提案する。
無視可能なオーバーヘッドでは、CD-GraBは集中型GraBよりも収束率の線形高速化を示し、様々なベンチマークタスクで分散RRを含むベースラインを経験的に上回る。
関連論文リスト
- Generalized Schrödinger Bridge Matching [54.171931505066]
一般化Schr"odinger Bridge (GSB) 問題設定は、機械学習の内外を問わず、多くの科学領域で一般的である。
我々は最近の進歩に触発された新しいマッチングアルゴリズムである一般化シュリンガーブリッジマッチング(GSBM)を提案する。
このような一般化は条件最適制御の解法として、変分近似を用いることができることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:42:11Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Deep Momentum Multi-Marginal Schr\"odinger Bridge [41.27274841596343]
本稿では,時間的限界制約を満たすシステムに対して,スムーズな測度値アルゴリズムを学習する新しいフレームワークを提案する。
我々のアルゴリズムは、合成データセットと実世界の単一細胞RNAデータセットシーケンスの実験によって証明されたように、ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2023-03-03T07:24:38Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Characterizing & Finding Good Data Orderings for Fast Convergence of
Sequential Gradient Methods [0.0]
我々は、順序が収束速度に及ぼす影響を定量化し、選択された置換列に基づいて収束境界を求める。
我々は、訓練中に優れた順序を選択するための欲求アルゴリズムを開発し、RRよりも優れた性能(精度が14%以上)を達成した。
論文 参考訳(メタデータ) (2022-02-03T20:38:42Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Slow and Stale Gradients Can Win the Race [39.750046808758526]
同期的に実行される分散Gradient Descent(SGD)は、最も遅いワーカー(ストラグラー)を待つとき、実行時の遅延に悩まされる。
非同期手法はストラグラーを緩和するが、収束誤差に悪影響を及ぼす勾配の安定化を引き起こす。
本稿では,訓練されたモデルにおけるエラーと実際のトレーニング実行時のトレードオフを解析し,非同期手法によって提供される高速化の理論的特徴について述べる。
論文 参考訳(メタデータ) (2020-03-23T23:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。