論文の概要: SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon
- arxiv url: http://arxiv.org/abs/2302.08692v1
- Date: Fri, 17 Feb 2023 04:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:48:53.402432
- Title: SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon
- Title(参考訳): samは家から遠く離れた場所で活動する:動的現象としての固有値正規化
- Authors: Atish Agarwala and Yann N. Dauphin
- Abstract要約: シャープネス認識最小化(SAM)アルゴリズムは、ロス・ヘッセンの大きな固有値を制御することが示されている。
SAMは学習軌跡全体を通して固有値の強い正規化を提供することを示す。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
- 参考スコア(独自算出の注目度): 15.332235979022036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Sharpness Aware Minimization (SAM) optimization algorithm has been shown
to control large eigenvalues of the loss Hessian and provide generalization
benefits in a variety of settings. The original motivation for SAM was a
modified loss function which penalized sharp minima; subsequent analyses have
also focused on the behavior near minima. However, our work reveals that SAM
provides a strong regularization of the eigenvalues throughout the learning
trajectory. We show that in a simplified setting, SAM dynamically induces a
stabilization related to the edge of stability (EOS) phenomenon observed in
large learning rate gradient descent. Our theory predicts the largest
eigenvalue as a function of the learning rate and SAM radius parameters.
Finally, we show that practical models can also exhibit this EOS stabilization,
and that understanding SAM must account for these dynamics far away from any
minima.
- Abstract(参考訳): Sharpness Aware Minimization (SAM) 最適化アルゴリズムは、損失ヘッセンの大きな固有値を制御し、様々な設定で一般化の利点を提供する。
SAMの元々の動機は、鋭いミニマをペナル化する改良された損失関数であった。
しかし,本研究では,SAMが学習軌道全体を通して固有値の強い正規化を提供することを明らかにした。
その結果,SAMは大規模学習速度勾配下降で観測される安定性のエッジ(EOS)現象を動的に安定化させることを示した。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
最後に、実用モデルがこのEOS安定化を示すことも示し、SAMの理解は任意のミニマから遠く離れたこれらのダイナミクスを考慮しなければならないことを示す。
関連論文リスト
- Sharpness-Aware Minimization Efficiently Selects Flatter Minima Late in Training [47.25594539120258]
Sharpness-Aware Minimization (SAM) はトレーニングの遅滞時に効率よくフラットなミニマを選択する。
SAMの訓練の終わりに応用されたいくつかのエポックでさえ、完全なSAMトレーニングとほぼ同じ一般化と解のシャープネスをもたらす。
我々は、最終解の物性を形作る上で、最終相で選択した最適化法がより重要であると推測する。
論文 参考訳(メタデータ) (2024-10-14T10:56:42Z) - Bilateral Sharpness-Aware Minimization for Flatter Minima [61.17349662062522]
Sharpness-Aware Minimization (SAM) は Max-Sharpness (MaxS) を減らして一般化を促進する
本稿では,現在の重量を囲む周辺地域のトレーニング損失と最小損失の差を利用して,Min-Sharpness (MinS) と表現する。
MaxSとMinSをマージすることで、最適化中により平坦な方向を示すより良いFIを作成しました。特に、このFIをSAMと組み合わせて提案されたバイラテラルSAM(BSAM)に組み込むことにより、SAMよりもより平坦な最小値を求めることができます。
論文 参考訳(メタデータ) (2024-09-20T03:01:13Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Stabilizing Sharpness-aware Minimization Through A Simple Renormalization Strategy [12.050160495730381]
SAM ( sharpness-aware generalization) は性能向上に驚くべき効果があることから注目されている。
本稿では, 安定SAM (SSAM) と呼ばれる単純な再正規化戦略を提案する。
我々の戦略は実装が容易で、SAMとその変種と統合するのに十分な柔軟性があり、ほとんど計算コストがかからない。
論文 参考訳(メタデータ) (2024-01-14T10:53:36Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - An SDE for Modeling SAM: Theory and Insights [7.1967126772249586]
近年,古典的派生型よりも性能が向上したSAM (Sharpness-Aware Minimization) が注目されている。
我々の主な貢献は、SAMの連続時間モデル(SDEの形で)の導出と、フルバッチおよびミニバッチ設定の2つのバリエーションの勾配である。
論文 参考訳(メタデータ) (2023-01-19T17:54:50Z) - Stability Analysis of Sharpness-Aware Minimization [5.024497308975435]
Sharpness-Aware(SAM)は、ディープラーニングにおいてフラットなミニマを見つけるための、最近提案されたトレーニング手法である。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
論文 参考訳(メタデータ) (2023-01-16T08:42:40Z) - Improved Deep Neural Network Generalization Using m-Sharpness-Aware
Minimization [14.40189851070842]
シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
近年の研究ではmSAMがSAMよりも精度が高いことが示唆されている。
本稿では,様々なタスクやデータセットにおけるmSAMの包括的評価について述べる。
論文 参考訳(メタデータ) (2022-12-07T00:37:55Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。