論文の概要: The Effects of Overparameterization on Sharpness-aware Minimization: An
Empirical and Theoretical Analysis
- arxiv url: http://arxiv.org/abs/2311.17539v1
- Date: Wed, 29 Nov 2023 11:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 21:43:57.733296
- Title: The Effects of Overparameterization on Sharpness-aware Minimization: An
Empirical and Theoretical Analysis
- Title(参考訳): 過パラメータ化がシャープネス認識最小化に及ぼす影響:実証的および理論的解析
- Authors: Sungbin Shin, Dongyeop Lee, Maksym Andriushchenko, Namhoon Lee
- Abstract要約: 我々は、パラメータ化の度合いの異なるシャープネス認識最小化(SAM)を解析する。
SAMにより発見された線形安定なミニマは,SGDに比べてより平坦であり,より均一に分布するヘッセンモーメントを有することを示す。
- 参考スコア(独自算出の注目度): 13.460372481500368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training an overparameterized neural network can yield minimizers of the same
level of training loss and yet different generalization capabilities. With
evidence that indicates a correlation between sharpness of minima and their
generalization errors, increasing efforts have been made to develop an
optimization method to explicitly find flat minima as more generalizable
solutions. This sharpness-aware minimization (SAM) strategy, however, has not
been studied much yet as to how overparameterization can actually affect its
behavior. In this work, we analyze SAM under varying degrees of
overparameterization and present both empirical and theoretical results that
suggest a critical influence of overparameterization on SAM. Specifically, we
first use standard techniques in optimization to prove that SAM can achieve a
linear convergence rate under overparameterization in a stochastic setting. We
also show that the linearly stable minima found by SAM are indeed flatter and
have more uniformly distributed Hessian moments compared to those of SGD. These
results are corroborated with our experiments that reveal a consistent trend
that the generalization improvement made by SAM continues to increase as the
model becomes more overparameterized. We further present that sparsity can open
up an avenue for effective overparameterization in practice.
- Abstract(参考訳): 過パラメータニューラルネットワークのトレーニングは、同じレベルのトレーニング損失と異なる一般化能力の最小化をもたらす可能性がある。
極小の鋭さと一般化誤差の相関関係を示す証拠により、より一般化可能な解として平坦な極小を明示的に見つけるための最適化手法の開発が進められている。
しかし、このシャープネス認識最小化(SAM)戦略は、過度パラメータ化が実際にその行動にどのように影響するかについて、まだ研究されていない。
本研究では,SAMの過パラメータ化の度合いを解析し,超パラメータ化がSAMに与える影響を示唆する経験的および理論的結果を示す。
具体的には、まず最適化において標準手法を用いて、SAMが確率的条件下で過パラメータ化の下で線形収束率を達成できることを証明する。
また,SAM で発見された線形安定ミニマは,SGD よりも平坦であり,ヘッセンモーメントが均一に分布していることを示す。
これらの結果は,モデルが過度にパラメータ化されるにつれてSAMによる一般化改善が増加し続けるという一貫した傾向を示す実験と相関する。
さらに,空間が効果的に過度なパラメータ化を行うための道を開くことができることを示す。
関連論文リスト
- $\boldsymbolμ\mathbf{P^2}$: Effective Sharpness Aware Minimization Requires Layerwise Perturbation Scaling [49.25546155981064]
シャープネス認識最小化(SAM)を用いたニューラルネットワークの無限幅限界について検討する。
この結果から, SAMのダイナミクスは, 広範なニューラルネットワークにおいて, 最後の層のみにSAMを適用することで効果的に低下することが判明した。
対照的に、階層的にスケールする摂動を伴う安定したパラメータ化を識別し、それを $textitMaximal Update and Perturbation $$mu$P$2$ と呼びます。
論文 参考訳(メタデータ) (2024-10-31T16:32:04Z) - A Universal Class of Sharpness-Aware Minimization Algorithms [57.29207151446387]
我々は、新しいシャープネス尺度を導入し、新しいシャープネス対応目標関数を導出する。
これらの測度がテキスト的に表現可能であることを証明し、トレーニング損失ヘッセン行列の任意の関数を適切なハイパーおよび行列式で表すことを可能にする。
論文 参考訳(メタデータ) (2024-06-06T01:52:09Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - The Crucial Role of Normalization in Sharpness-Aware Minimization [44.00155917998616]
Sharpness-Aware Minimization (SAM)は勾配に基づくニューラルネットワークであり、予測性能を大幅に向上させる。
正規化の2つの性質がSAMを超実用性の選択に対して堅牢にすると主張する。
論文 参考訳(メタデータ) (2023-05-24T16:09:41Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - Stability Analysis of Sharpness-Aware Minimization [5.024497308975435]
Sharpness-Aware(SAM)は、ディープラーニングにおいてフラットなミニマを見つけるための、最近提案されたトレーニング手法である。
本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。
論文 参考訳(メタデータ) (2023-01-16T08:42:40Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Parameters or Privacy: A Provable Tradeoff Between Overparameterization
and Membership Inference [29.743945643424553]
オーバーパラメータ化モデルは、トレーニングデータ(トレーニングデータではゼロエラー)を記憶するように訓練された場合でも、うまく(テストデータでは小さなエラー)一般化する。
このことが、パラメータ化されたモデル(例えばディープラーニング)をますます超越する武器競争に繋がった。
論文 参考訳(メタデータ) (2022-02-02T19:00:21Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。