論文の概要: Adapprox: Adaptive Approximation in Adam Optimization via Randomized Low-Rank Matrices
- arxiv url: http://arxiv.org/abs/2403.14958v1
- Date: Fri, 22 Mar 2024 05:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 18:37:30.395974
- Title: Adapprox: Adaptive Approximation in Adam Optimization via Randomized Low-Rank Matrices
- Title(参考訳): Adapprox: ランダム化低ランク行列によるアダム最適化における適応近似
- Authors: Pengxiang Zhao, Ping Li, Yingjie Gu, Yi Zheng, Stephan Ludger Kölker, Zhefeng Wang, Xiaoming Yuan,
- Abstract要約: Adapproxは、Adamの2番目の瞬間をより正確に近似するためにランダム化された低ランク行列近似を利用する新しいアプローチである。
GPT-2のトレーニングとダウンストリームタスクでは、アダポックスは34.5%から49.9%のメモリ節約を達成した。
- 参考スコア(独自算出の注目度): 24.319712013824876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep learning models exponentially increase in size, optimizers such as Adam encounter significant memory consumption challenges due to the storage of first and second moment data. Current memory-efficient methods like Adafactor and CAME often compromise accuracy with their matrix factorization techniques. Addressing this, we introduce Adapprox, a novel approach that employs randomized low-rank matrix approximation for a more effective and accurate approximation of Adam's second moment. Adapprox features an adaptive rank selection mechanism, finely balancing accuracy and memory efficiency, and includes an optional cosine similarity guidance strategy to enhance stability and expedite convergence. In GPT-2 training and downstream tasks, Adapprox surpasses AdamW by achieving 34.5% to 49.9% and 33.8% to 49.9% memory savings for the 117M and 345M models, respectively, with the first moment enabled, and further increases these savings without the first moment. Besides, it enhances convergence speed and improves downstream task performance relative to its counterparts.
- Abstract(参考訳): ディープラーニングモデルのサイズが指数関数的に大きくなるにつれて、Adam氏のようなオプティマイザは、第1モーメントと第2モーメントデータの保存によるメモリ消費の問題に遭遇する。
AdafactorやCAMEのような現在のメモリ効率のよい手法は、行列分解技術によって精度を損なうことが多い。
これに対応するために,ランダム化低ランク行列近似を用いた新しいアプローチであるAdapproxを導入する。
Adapproxは適応的なランク選択機構を備え、精度とメモリ効率を微妙にバランスさせ、安定性を高め、収束を早めるオプションのコサイン類似性ガイダンス戦略を備えている。
GPT-2のトレーニングとダウンストリームタスクでは、AdapproxはAdamWを34.5%から49.9%、33.8%から49.9%に上回り、117Mモデルと345Mモデルでそれぞれメモリ節約を達成し、最初の瞬間が有効となり、最初の瞬間なしでこれらの節約をさらに増やした。
さらにコンバージェンス速度を向上し、ダウンストリームタスクのパフォーマンスも向上する。
関連論文リスト
- A Computationally Efficient Sparsified Online Newton Method [48.78646010774149]
Sparsified Online Newton (SONew) はメモリ効率の良い2次アルゴリズムである。
最大で30%の高速化,3.4%の妥当性向上,80%のトレーニング損失の相対的改善を実現しています。
論文 参考訳(メタデータ) (2023-11-16T18:44:22Z) - AdaLomo: Low-memory Optimization with Adaptive Learning Rate [63.99489591661645]
大規模言語モデルに対する適応学習率(AdaLomo)を用いた低メモリ最適化を提案する。
AdaLomoはAdamWと同等の結果を得ると同時に、メモリ要件を大幅に削減し、大きな言語モデルをトレーニングするためのハードウェア障壁を低くする。
論文 参考訳(メタデータ) (2023-10-16T09:04:28Z) - CAME: Confidence-guided Adaptive Memory Efficient Optimization [20.009302737137787]
適応勾配法は大規模言語モデルの訓練において優れた性能を示した。
二次モーメント推定の維持には、メモリオーバーヘッドの増大を高いコストで維持する必要がある。
補助メモリ使用量の大幅な削減を実現するために、いくつかのメモリ効率が提案されているが、性能上のペナルティがある。
我々は,従来の適応手法のように高速収束,メモリ効率の低い2つの目標を同時に達成するために,CAMEを提案する。
論文 参考訳(メタデータ) (2023-07-05T06:05:36Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Optimizing Coordinative Schedules for Tanker Terminals: An Intelligent
Large Spatial-Temporal Data-Driven Approach -- Part 1 [4.181498820782148]
提案手法は,カーネルとして拡張粒子群最適化 (ePSO) と,グローバルな最適探索として拡張ファイアフライアルゴリズム (AFA) から構成される。
実験の結果,両手法がポート効率を効果的に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-04-08T07:56:32Z) - KAISA: An Adaptive Second-order Optimizer Framework for Deep Neural
Networks [11.340789769829069]
本稿では,K-FAC対応,適応性,改善性,ScAlableの2次フレームワークであるKAISAを紹介する。
メモリと通信コストのトレードオフを定量化し,大規模モデル上でのKAISAを評価する。
論文 参考訳(メタデータ) (2021-07-04T21:34:22Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。