論文の概要: Stability Analysis of Sharpness-Aware Minimization
- arxiv url: http://arxiv.org/abs/2301.06308v1
- Date: Mon, 16 Jan 2023 08:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 16:16:38.323102
- Title: Stability Analysis of Sharpness-Aware Minimization
- Title(参考訳): シャープネス認識最小化の安定性解析
- Authors: Hoki Kim, Jinseong Park, Yujin Choi, and Jaewook Lee
- Abstract要約: Sharpness-Aware(SAM)は、ディープラーニングにおいてフラットなミニマを見つけるための、最近提案されたトレーニング手法である。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
- 参考スコア(独自算出の注目度): 5.024497308975435
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sharpness-aware minimization (SAM) is a recently proposed training method
that seeks to find flat minima in deep learning, resulting in state-of-the-art
performance across various domains. Instead of minimizing the loss of the
current weights, SAM minimizes the worst-case loss in its neighborhood in the
parameter space. In this paper, we demonstrate that SAM dynamics can have
convergence instability that occurs near a saddle point. Utilizing the
qualitative theory of dynamical systems, we explain how SAM becomes stuck in
the saddle point and then theoretically prove that the saddle point can become
an attractor under SAM dynamics. Additionally, we show that this convergence
instability can also occur in stochastic dynamical systems by establishing the
diffusion of SAM. We prove that SAM diffusion is worse than that of vanilla
gradient descent in terms of saddle point escape. Further, we demonstrate that
often overlooked training tricks, momentum and batch-size, are important to
mitigate the convergence instability and achieve high generalization
performance. Our theoretical and empirical results are thoroughly verified
through experiments on several well-known optimization problems and benchmark
tasks.
- Abstract(参考訳): シャープネスを意識した最小化(SAM)は、ディープラーニングにおいてフラットな最小化を求める、最近提案された訓練手法である。
SAMは現在の重みの損失を最小限に抑える代わりに、パラメータ空間におけるその近傍の最悪の損失を最小限に抑える。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
力学系の定性的理論を利用すると、SAMがサドル点に留まり、理論上、サドル点がSAM力学の下でアトラクションとなることを証明できる。
さらに, この収束不安定性は, SAMの拡散を確立することにより, 確率力学系でも起こりうることを示す。
SAM拡散はサドル点脱出の点でバニラ勾配降下よりも悪いことが証明された。
さらに,収束不安定を緩和し,高い一般化性能を達成するためには,しばしば見過ごされる練習技である運動量やバッチサイズが重要であることを示す。
理論的および実証的な結果は、よく知られた最適化問題とベンチマークタスクの実験を通じて徹底的に検証される。
関連論文リスト
- Sharpness-Aware Minimization Efficiently Selects Flatter Minima Late in Training [47.25594539120258]
Sharpness-Aware Minimization (SAM) はトレーニングの遅滞時に効率よくフラットなミニマを選択する。
SAMの訓練の終わりに応用されたいくつかのエポックでさえ、完全なSAMトレーニングとほぼ同じ一般化と解のシャープネスをもたらす。
我々は、最終解の物性を形作る上で、最終相で選択した最適化法がより重要であると推測する。
論文 参考訳(メタデータ) (2024-10-14T10:56:42Z) - Bilateral Sharpness-Aware Minimization for Flatter Minima [61.17349662062522]
Sharpness-Aware Minimization (SAM) は Max-Sharpness (MaxS) を減らして一般化を促進する
本稿では,現在の重量を囲む周辺地域のトレーニング損失と最小損失の差を利用して,Min-Sharpness (MinS) と表現する。
MaxSとMinSをマージすることで、最適化中により平坦な方向を示すより良いFIを作成しました。特に、このFIをSAMと組み合わせて提案されたバイラテラルSAM(BSAM)に組み込むことにより、SAMよりもより平坦な最小値を求めることができます。
論文 参考訳(メタデータ) (2024-09-20T03:01:13Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Stabilizing Sharpness-aware Minimization Through A Simple Renormalization Strategy [12.050160495730381]
SAM ( sharpness-aware generalization) は性能向上に驚くべき効果があることから注目されている。
本稿では, 安定SAM (SSAM) と呼ばれる単純な再正規化戦略を提案する。
我々の戦略は実装が容易で、SAMとその変種と統合するのに十分な柔軟性があり、ほとんど計算コストがかからない。
論文 参考訳(メタデータ) (2024-01-14T10:53:36Z) - Critical Influence of Overparameterization on Sharpness-aware Minimization [12.321517302762558]
本研究は,パラメータ化の超過によって,シャープネス認識最小化(SAM)戦略が影響を受けることを示す。
SAM のパラメータ化による複数の理論的利点を,SGD と比較してより均一なヘッセンモーメントで達成できること,(ii) 線形速度でのはるかに高速な収束,(iii) 2層ネットワークにおけるテスト誤差の低減に証明する。
論文 参考訳(メタデータ) (2023-11-29T11:19:50Z) - Enhancing Sharpness-Aware Optimization Through Variance Suppression [48.908966673827734]
この研究は損失関数の幾何学を取り入れ、そこでは「平坦なミニマ」の近傍が一般化能力を高める。
地区内の敵対的な摂動パラメータによる最大損失を最小化することで「平坦な谷」を求める。
損失関数のシャープさを考慮に入れることが重要であるが、そのような「過剰にフレンドリーな敵」は極端に一般化のレベルを縮めることができる。
論文 参考訳(メタデータ) (2023-09-27T13:18:23Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - On Statistical Properties of Sharpness-Aware Minimization: Provable
Guarantees [5.91402820967386]
シャープネス・アウェアの最小化 (SAM) が一般化する理由について, 新たな理論的説明を行う。
SAMはシャープな問題と非シャープな問題の両方に特に適している。
本研究は,ディープニューラルネットワークを用いた数値実験により検証した。
論文 参考訳(メタデータ) (2023-02-23T07:52:31Z) - SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon [15.332235979022036]
シャープネス認識最小化(SAM)アルゴリズムは、ロス・ヘッセンの大きな固有値を制御することが示されている。
SAMは学習軌跡全体を通して固有値の強い正規化を提供することを示す。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
論文 参考訳(メタデータ) (2023-02-17T04:51:20Z) - An SDE for Modeling SAM: Theory and Insights [7.1967126772249586]
近年,古典的派生型よりも性能が向上したSAM (Sharpness-Aware Minimization) が注目されている。
我々の主な貢献は、SAMの連続時間モデル(SDEの形で)の導出と、フルバッチおよびミニバッチ設定の2つのバリエーションの勾配である。
論文 参考訳(メタデータ) (2023-01-19T17:54:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。