論文の概要: Normalization Layers Are All That Sharpness-Aware Minimization Needs
- arxiv url: http://arxiv.org/abs/2306.04226v2
- Date: Fri, 17 Nov 2023 08:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 19:10:20.189663
- Title: Normalization Layers Are All That Sharpness-Aware Minimization Needs
- Title(参考訳): 正規化レイヤーはシャープな最小化に必要なもの
- Authors: Maximilian Mueller, Tiffany Vlaar, David Rolnick, Matthias Hein
- Abstract要約: シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 53.799769473526275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sharpness-aware minimization (SAM) was proposed to reduce sharpness of minima
and has been shown to enhance generalization performance in various settings.
In this work we show that perturbing only the affine normalization parameters
(typically comprising 0.1% of the total parameters) in the adversarial step of
SAM can outperform perturbing all of the parameters.This finding generalizes to
different SAM variants and both ResNet (Batch Normalization) and Vision
Transformer (Layer Normalization) architectures. We consider alternative sparse
perturbation approaches and find that these do not achieve similar performance
enhancement at such extreme sparsity levels, showing that this behaviour is
unique to the normalization layers. Although our findings reaffirm the
effectiveness of SAM in improving generalization performance, they cast doubt
on whether this is solely caused by reduced sharpness.
- Abstract(参考訳): シャープネス認識最小化(SAM)は,最小値のシャープさを低減するために提案され,様々な設定で一般化性能を向上させることが示されている。
本研究は,samの逆行ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみを摂動させることで,すべてのパラメータを摂動させることができることを示し,sam の異なる変種と resnet (batch normalization) と vision transformer (layer normalization) アーキテクチャの両方に一般化する。
このような極端に疎度なレベルにおいて同様の性能向上を達成できておらず、この挙動は正規化層に特有のものであることを示す。
本研究は,SAMの一般化性能向上効果を再確認するものであるが,これは単にシャープネスの低下によるものであるかどうかに疑問を投げかけた。
関連論文リスト
- 1st-Order Magic: Analysis of Sharpness-Aware Minimization [0.0]
SAM (Sharpness-Aware Minimization) は、平らな損失最小値を求めることで一般化を改善するために設計された最適化手法である。
提案したSAM目標値のより正確な近似は、一般化性能を劣化させる。
このことはSAMの有効性に対する我々の理解のギャップを浮き彫りにし、最適化における近似の役割についてさらなる調査を求める。
論文 参考訳(メタデータ) (2024-11-03T23:50:34Z) - $\boldsymbolμ\mathbf{P^2}$: Effective Sharpness Aware Minimization Requires Layerwise Perturbation Scaling [49.25546155981064]
シャープネス認識最小化(SAM)を用いたニューラルネットワークの無限幅限界について検討する。
この結果から, SAMのダイナミクスは, 広範なニューラルネットワークにおいて, 最後の層のみにSAMを適用することで効果的に低下することが判明した。
対照的に、階層的にスケールする摂動を伴う安定したパラメータ化を識別し、それを $textitMaximal Update and Perturbation $$mu$P$2$ と呼びます。
論文 参考訳(メタデータ) (2024-10-31T16:32:04Z) - A Universal Class of Sharpness-Aware Minimization Algorithms [57.29207151446387]
我々は、新しいシャープネス尺度を導入し、新しいシャープネス対応目標関数を導出する。
これらの測度がテキスト的に表現可能であることを証明し、トレーニング損失ヘッセン行列の任意の関数を適切なハイパーおよび行列式で表すことを可能にする。
論文 参考訳(メタデータ) (2024-06-06T01:52:09Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Enhancing Sharpness-Aware Optimization Through Variance Suppression [48.908966673827734]
この研究は損失関数の幾何学を取り入れ、そこでは「平坦なミニマ」の近傍が一般化能力を高める。
地区内の敵対的な摂動パラメータによる最大損失を最小化することで「平坦な谷」を求める。
損失関数のシャープさを考慮に入れることが重要であるが、そのような「過剰にフレンドリーな敵」は極端に一般化のレベルを縮めることができる。
論文 参考訳(メタデータ) (2023-09-27T13:18:23Z) - Improved Deep Neural Network Generalization Using m-Sharpness-Aware
Minimization [14.40189851070842]
シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
近年の研究ではmSAMがSAMよりも精度が高いことが示唆されている。
本稿では,様々なタスクやデータセットにおけるmSAMの包括的評価について述べる。
論文 参考訳(メタデータ) (2022-12-07T00:37:55Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z) - ASAM: Adaptive Sharpness-Aware Minimization for Scale-Invariant Learning
of Deep Neural Networks [2.8292841621378844]
スケール不変の適応シャープネスの概念を導入し、対応する一般化境界を提案する。
本稿では,適応的シャープネス認識最小化(ASAM)という新たな学習手法を提案する。
各種ベンチマークデータセットの実験結果から,ASAMはモデル一般化性能の大幅な向上に寄与することが示された。
論文 参考訳(メタデータ) (2021-02-23T10:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。