論文の概要: How Does Sharpness-Aware Minimization Minimize Sharpness?
- arxiv url: http://arxiv.org/abs/2211.05729v1
- Date: Thu, 10 Nov 2022 17:56:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:57:40.349130
- Title: How Does Sharpness-Aware Minimization Minimize Sharpness?
- Title(参考訳): シャープネス認識最小化はシャープネスを最小化するか?
- Authors: Kaiyue Wen, Tengyu Ma, Zhiyuan Li
- Abstract要約: シャープネス・アウェアの最小化(SAM)は、ディープニューラルネットワークの一般化を改善するための非常に効果的な正規化手法である。
本稿では、SAMが基礎となるメカニズムを規則化し、明確化するという正確なシャープネスの概念を厳格に説明する。
- 参考スコア(独自算出の注目度): 29.90109733192208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sharpness-Aware Minimization (SAM) is a highly effective regularization
technique for improving the generalization of deep neural networks for various
settings. However, the underlying working of SAM remains elusive because of
various intriguing approximations in the theoretical characterizations. SAM
intends to penalize a notion of sharpness of the model but implements a
computationally efficient variant; moreover, a third notion of sharpness was
used for proving generalization guarantees. The subtle differences in these
notions of sharpness can indeed lead to significantly different empirical
results. This paper rigorously nails down the exact sharpness notion that SAM
regularizes and clarifies the underlying mechanism. We also show that the two
steps of approximations in the original motivation of SAM individually lead to
inaccurate local conclusions, but their combination accidentally reveals the
correct effect, when full-batch gradients are applied. Furthermore, we also
prove that the stochastic version of SAM in fact regularizes the third notion
of sharpness mentioned above, which is most likely to be the preferred notion
for practical performance. The key mechanism behind this intriguing phenomenon
is the alignment between the gradient and the top eigenvector of Hessian when
SAM is applied.
- Abstract(参考訳): シャープネス・アウェアの最小化(SAM)は、様々な設定のためのディープニューラルネットワークの一般化を改善するための非常に効果的な正規化手法である。
しかし、SAMの基盤となる作用は、理論的な特性に様々な興味深い近似があるため、いまだ解明されていない。
SAMはモデルのシャープネスの概念をペナルティ化しようとしているが、計算的に効率的な変種を実装しており、さらに3番目のシャープネスの概念は一般化の保証を証明するために使われた。
鋭さという概念の微妙な違いは、確かに明らかに異なる経験結果をもたらす。
本稿では、SAMが基礎となるメカニズムを規則化し、明確化するという正確なシャープネスの概念を厳格に説明する。
また,SAMの元々の動機付けにおける2段階の近似は,局所的な結論が不正確であることを示すが,それらの組み合わせは,フルバッチ勾配を適用した場合に誤って正しい効果を示す。
さらに、SAMの確率的なバージョンは、上述したシャープネスの第三の概念を実際に正則化していることも証明する。
この興味深い現象の背後にある重要なメカニズムは、SAMが適用されるときの勾配とヘッセンの頂点固有ベクトルのアライメントである。
関連論文リスト
- Bilateral Sharpness-Aware Minimization for Flatter Minima [61.17349662062522]
Sharpness-Aware Minimization (SAM) は Max-Sharpness (MaxS) を減らして一般化を促進する
本稿では,現在の重量を囲む周辺地域のトレーニング損失と最小損失の差を利用して,Min-Sharpness (MinS) と表現する。
MaxSとMinSをマージすることで、最適化中により平坦な方向を示すより良いFIを作成しました。特に、このFIをSAMと組み合わせて提案されたバイラテラルSAM(BSAM)に組み込むことにより、SAMよりもより平坦な最小値を求めることができます。
論文 参考訳(メタデータ) (2024-09-20T03:01:13Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Stabilizing Sharpness-aware Minimization Through A Simple Renormalization Strategy [12.050160495730381]
SAM ( sharpness-aware generalization) は性能向上に驚くべき効果があることから注目されている。
本稿では, 安定SAM (SSAM) と呼ばれる単純な再正規化戦略を提案する。
我々の戦略は実装が容易で、SAMとその変種と統合するのに十分な柔軟性があり、ほとんど計算コストがかからない。
論文 参考訳(メタデータ) (2024-01-14T10:53:36Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - The Crucial Role of Normalization in Sharpness-Aware Minimization [44.00155917998616]
Sharpness-Aware Minimization (SAM)は勾配に基づくニューラルネットワークであり、予測性能を大幅に向上させる。
正規化の2つの性質がSAMを超実用性の選択に対して堅牢にすると主張する。
論文 参考訳(メタデータ) (2023-05-24T16:09:41Z) - Make Sharpness-Aware Minimization Stronger: A Sparsified Perturbation
Approach [132.37966970098645]
人気のソリューションの1つがSAM(Sharpness-Aware Minimization)であり、摂動を加える際の体重減少の変化を最小限に抑える。
本稿では,Sparse SAM (SSAM) とよばれる効率的な学習手法を提案する。
さらに、S が同じSAM、すなわち $O(log T/sqrtTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTT で収束できることを理論的に証明する。
論文 参考訳(メタデータ) (2022-10-11T06:30:10Z) - Towards Understanding Sharpness-Aware Minimization [27.666483899332643]
Sharpness-Aware Minimization (SAM) の成功に対する既存の正当化は、PACBayes の一般化に基づいていると論じる。
対角線ネットワークの暗黙バイアスを理論的に解析する。
SAMで標準モデルを微調整することで、非シャープネットワークの特性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-13T15:07:32Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。