論文の概要: Stability Analysis of Sharpness-Aware Minimization
- arxiv url: http://arxiv.org/abs/2301.06308v1
- Date: Mon, 16 Jan 2023 08:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 16:16:38.323102
- Title: Stability Analysis of Sharpness-Aware Minimization
- Title(参考訳): シャープネス認識最小化の安定性解析
- Authors: Hoki Kim, Jinseong Park, Yujin Choi, and Jaewook Lee
- Abstract要約: Sharpness-Aware(SAM)は、ディープラーニングにおいてフラットなミニマを見つけるための、最近提案されたトレーニング手法である。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
- 参考スコア(独自算出の注目度): 5.024497308975435
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sharpness-aware minimization (SAM) is a recently proposed training method
that seeks to find flat minima in deep learning, resulting in state-of-the-art
performance across various domains. Instead of minimizing the loss of the
current weights, SAM minimizes the worst-case loss in its neighborhood in the
parameter space. In this paper, we demonstrate that SAM dynamics can have
convergence instability that occurs near a saddle point. Utilizing the
qualitative theory of dynamical systems, we explain how SAM becomes stuck in
the saddle point and then theoretically prove that the saddle point can become
an attractor under SAM dynamics. Additionally, we show that this convergence
instability can also occur in stochastic dynamical systems by establishing the
diffusion of SAM. We prove that SAM diffusion is worse than that of vanilla
gradient descent in terms of saddle point escape. Further, we demonstrate that
often overlooked training tricks, momentum and batch-size, are important to
mitigate the convergence instability and achieve high generalization
performance. Our theoretical and empirical results are thoroughly verified
through experiments on several well-known optimization problems and benchmark
tasks.
- Abstract(参考訳): シャープネスを意識した最小化(SAM)は、ディープラーニングにおいてフラットな最小化を求める、最近提案された訓練手法である。
SAMは現在の重みの損失を最小限に抑える代わりに、パラメータ空間におけるその近傍の最悪の損失を最小限に抑える。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
力学系の定性的理論を利用すると、SAMがサドル点に留まり、理論上、サドル点がSAM力学の下でアトラクションとなることを証明できる。
さらに, この収束不安定性は, SAMの拡散を確立することにより, 確率力学系でも起こりうることを示す。
SAM拡散はサドル点脱出の点でバニラ勾配降下よりも悪いことが証明された。
さらに,収束不安定を緩和し,高い一般化性能を達成するためには,しばしば見過ごされる練習技である運動量やバッチサイズが重要であることを示す。
理論的および実証的な結果は、よく知られた最適化問題とベンチマークタスクの実験を通じて徹底的に検証される。
関連論文リスト
- Stabilizing Sharpness-aware Minimization Through A Simple
Renormalization Strategy [12.927965934262847]
シャープネス・アウェア(SAM)を用いたニューラルネットワークのトレーニングは非常に不安定である。
そこで我々は、StableSAMと呼ばれる単純な再正規化戦略を提案し、従順勾配のノルムが正確な勾配のノルムを維持する。
本稿は,StableSAMが学習率のこの仕組みをどのように拡張し,SAMを微調整で一貫した性能を実現できるかを示す。
論文 参考訳(メタデータ) (2024-01-14T10:53:36Z) - Analyzing Sharpness-aware Minimization under Overparameterization [13.460372481500368]
パラメータ化の超過により,シャープネスを意識した最小化(SAM)が有効であることを示す。
また,2層ネットワークの解析により,パラメータ化によるSAMの一般化が向上することを示す。
論文 参考訳(メタデータ) (2023-11-29T11:19:50Z) - Enhancing Sharpness-Aware Optimization Through Variance Suppression [48.908966673827734]
この研究は損失関数の幾何学を取り入れ、そこでは「平坦なミニマ」の近傍が一般化能力を高める。
地区内の敵対的な摂動パラメータによる最大損失を最小化することで「平坦な谷」を求める。
損失関数のシャープさを考慮に入れることが重要であるが、そのような「過剰にフレンドリーな敵」は極端に一般化のレベルを縮めることができる。
論文 参考訳(メタデータ) (2023-09-27T13:18:23Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - On Statistical Properties of Sharpness-Aware Minimization: Provable
Guarantees [5.91402820967386]
シャープネス・アウェアの最小化 (SAM) が一般化する理由について, 新たな理論的説明を行う。
SAMはシャープな問題と非シャープな問題の両方に特に適している。
本研究は,ディープニューラルネットワークを用いた数値実験により検証した。
論文 参考訳(メタデータ) (2023-02-23T07:52:31Z) - SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon [15.332235979022036]
シャープネス認識最小化(SAM)アルゴリズムは、ロス・ヘッセンの大きな固有値を制御することが示されている。
SAMは学習軌跡全体を通して固有値の強い正規化を提供することを示す。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
論文 参考訳(メタデータ) (2023-02-17T04:51:20Z) - An SDE for Modeling SAM: Theory and Insights [7.1967126772249586]
近年,古典的派生型よりも性能が向上したSAM (Sharpness-Aware Minimization) が注目されている。
我々の主な貢献は、SAMの連続時間モデル(SDEの形で)の導出と、フルバッチおよびミニバッチ設定の2つのバリエーションの勾配である。
論文 参考訳(メタデータ) (2023-01-19T17:54:50Z) - Make Sharpness-Aware Minimization Stronger: A Sparsified Perturbation
Approach [132.37966970098645]
人気のソリューションの1つがSAM(Sharpness-Aware Minimization)であり、摂動を加える際の体重減少の変化を最小限に抑える。
本稿では,Sparse SAM (SSAM) とよばれる効率的な学習手法を提案する。
さらに、S が同じSAM、すなわち $O(log T/sqrtTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTT で収束できることを理論的に証明する。
論文 参考訳(メタデータ) (2022-10-11T06:30:10Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。