論文の概要: The Effects of Overparameterization on Sharpness-aware Minimization: An
Empirical and Theoretical Analysis
- arxiv url: http://arxiv.org/abs/2311.17539v1
- Date: Wed, 29 Nov 2023 11:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 21:43:57.733296
- Title: The Effects of Overparameterization on Sharpness-aware Minimization: An
Empirical and Theoretical Analysis
- Title(参考訳): 過パラメータ化がシャープネス認識最小化に及ぼす影響:実証的および理論的解析
- Authors: Sungbin Shin, Dongyeop Lee, Maksym Andriushchenko, Namhoon Lee
- Abstract要約: 我々は、パラメータ化の度合いの異なるシャープネス認識最小化(SAM)を解析する。
SAMにより発見された線形安定なミニマは,SGDに比べてより平坦であり,より均一に分布するヘッセンモーメントを有することを示す。
- 参考スコア(独自算出の注目度): 13.460372481500368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training an overparameterized neural network can yield minimizers of the same
level of training loss and yet different generalization capabilities. With
evidence that indicates a correlation between sharpness of minima and their
generalization errors, increasing efforts have been made to develop an
optimization method to explicitly find flat minima as more generalizable
solutions. This sharpness-aware minimization (SAM) strategy, however, has not
been studied much yet as to how overparameterization can actually affect its
behavior. In this work, we analyze SAM under varying degrees of
overparameterization and present both empirical and theoretical results that
suggest a critical influence of overparameterization on SAM. Specifically, we
first use standard techniques in optimization to prove that SAM can achieve a
linear convergence rate under overparameterization in a stochastic setting. We
also show that the linearly stable minima found by SAM are indeed flatter and
have more uniformly distributed Hessian moments compared to those of SGD. These
results are corroborated with our experiments that reveal a consistent trend
that the generalization improvement made by SAM continues to increase as the
model becomes more overparameterized. We further present that sparsity can open
up an avenue for effective overparameterization in practice.
- Abstract(参考訳): 過パラメータニューラルネットワークのトレーニングは、同じレベルのトレーニング損失と異なる一般化能力の最小化をもたらす可能性がある。
極小の鋭さと一般化誤差の相関関係を示す証拠により、より一般化可能な解として平坦な極小を明示的に見つけるための最適化手法の開発が進められている。
しかし、このシャープネス認識最小化(SAM)戦略は、過度パラメータ化が実際にその行動にどのように影響するかについて、まだ研究されていない。
本研究では,SAMの過パラメータ化の度合いを解析し,超パラメータ化がSAMに与える影響を示唆する経験的および理論的結果を示す。
具体的には、まず最適化において標準手法を用いて、SAMが確率的条件下で過パラメータ化の下で線形収束率を達成できることを証明する。
また,SAM で発見された線形安定ミニマは,SGD よりも平坦であり,ヘッセンモーメントが均一に分布していることを示す。
これらの結果は,モデルが過度にパラメータ化されるにつれてSAMによる一般化改善が増加し続けるという一貫した傾向を示す実験と相関する。
さらに,空間が効果的に過度なパラメータ化を行うための道を開くことができることを示す。
関連論文リスト
- Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - On Statistical Properties of Sharpness-Aware Minimization: Provable
Guarantees [5.91402820967386]
シャープネス・アウェアの最小化 (SAM) が一般化する理由について, 新たな理論的説明を行う。
SAMはシャープな問題と非シャープな問題の両方に特に適している。
本研究は,ディープニューラルネットワークを用いた数値実験により検証した。
論文 参考訳(メタデータ) (2023-02-23T07:52:31Z) - mSAM: Micro-Batch-Averaged Sharpness-Aware Minimization [20.560184120992094]
シャープネス・アウェアの最小化手法は、フラットな最小化に向けて勾配降下法を操る基本損失関数を変更する。
我々は最近開発されたフラットネス解析のためのよく研究された一般的なフレームワークを拡張し、SAMがSGDよりもフラットなミニマを達成し、mSAMがSAMよりもフラットなミニマを達成できることを理論的に示す。
論文 参考訳(メタデータ) (2023-02-19T23:27:12Z) - SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon [15.332235979022036]
シャープネス認識最小化(SAM)アルゴリズムは、ロス・ヘッセンの大きな固有値を制御することが示されている。
SAMは学習軌跡全体を通して固有値の強い正規化を提供することを示す。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
論文 参考訳(メタデータ) (2023-02-17T04:51:20Z) - Stability Analysis of Sharpness-Aware Minimization [5.024497308975435]
Sharpness-Aware(SAM)は、ディープラーニングにおいてフラットなミニマを見つけるための、最近提案されたトレーニング手法である。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
論文 参考訳(メタデータ) (2023-01-16T08:42:40Z) - Improved Deep Neural Network Generalization Using m-Sharpness-Aware
Minimization [14.40189851070842]
シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
近年の研究ではmSAMがSAMよりも精度が高いことが示唆されている。
本稿では,様々なタスクやデータセットにおけるmSAMの包括的評価について述べる。
論文 参考訳(メタデータ) (2022-12-07T00:37:55Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。