論文の概要: Sharpness-Aware Minimization Revisited: Weighted Sharpness as a
Regularization Term
- arxiv url: http://arxiv.org/abs/2305.15817v1
- Date: Thu, 25 May 2023 08:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:38:19.079264
- Title: Sharpness-Aware Minimization Revisited: Weighted Sharpness as a
Regularization Term
- Title(参考訳): シャープネスを意識した最小化:正規化用語としての重み付きシャープネス
- Authors: Yun Yue, Jiadi Jiang, Zhiling Ye, Ning Gao, Yongchao Liu, Ke Zhang
- Abstract要約: 正規化項としてシャープネスを組み込んだWSAMという,より一般的な手法を提案する。
PACとBayes-PACの併用による一般化を実証する。
その結果、WSAMは、バニラやSAMとその変種と比較して、より改良された一般化を達成するか、少なくとも高い競争力を持つことを示した。
- 参考スコア(独自算出の注目度): 4.719514928428503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) generalization is known to be closely related to
the flatness of minima, leading to the development of Sharpness-Aware
Minimization (SAM) for seeking flatter minima and better generalization. In
this paper, we revisit the loss of SAM and propose a more general method,
called WSAM, by incorporating sharpness as a regularization term. We prove its
generalization bound through the combination of PAC and Bayes-PAC techniques,
and evaluate its performance on various public datasets. The results
demonstrate that WSAM achieves improved generalization, or is at least highly
competitive, compared to the vanilla optimizer, SAM and its variants. The code
is available at
https://github.com/intelligent-machine-learning/dlrover/tree/master/atorch/atorch/optimizers.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の一般化は、ミニマの平坦性と密接に関連していることが知られており、フラットなミニマとより良い一般化を求めるシャープネス・アウェアの最小化(SAM)の開発につながっている。
本稿では, SAMの喪失を再考し, シャープネスを正規化項として組み込むことにより, WSAMと呼ばれるより一般的な手法を提案する。
PACとBayes-PACの併用による一般化を実証し,様々な公開データセット上での性能を評価する。
その結果、WSAM はバニラオプティマイザ SAM とその変種と比較して、改良された一般化を達成するか、少なくとも競争力が高いことを示した。
コードはhttps://github.com/intelligent-machine-learning/dlrover/tree/master/atorch/atorch/optimizersで入手できる。
関連論文リスト
- SAMPa: Sharpness-aware Minimization Parallelized [51.668052890249726]
シャープネス認識(SAM)はニューラルネットワークの一般化を改善することが示されている。
SAMの更新には2つの勾配を瞬時に計算する必要がある。
我々は,SAMPaと呼ばれるSAMの簡単な修正を提案し,この2つの勾配計算を完全に並列化することができる。
論文 参考訳(メタデータ) (2024-10-14T16:21:23Z) - Bilateral Sharpness-Aware Minimization for Flatter Minima [61.17349662062522]
Sharpness-Aware Minimization (SAM) は Max-Sharpness (MaxS) を減らして一般化を促進する
本稿では,現在の重量を囲む周辺地域のトレーニング損失と最小損失の差を利用して,Min-Sharpness (MinS) と表現する。
MaxSとMinSをマージすることで、最適化中により平坦な方向を示すより良いFIを作成しました。特に、このFIをSAMと組み合わせて提案されたバイラテラルSAM(BSAM)に組み込むことにより、SAMよりもより平坦な最小値を求めることができます。
論文 参考訳(メタデータ) (2024-09-20T03:01:13Z) - Improving SAM Requires Rethinking its Optimization Formulation [57.601718870423454]
Sharpness-Aware Minimization (SAM) は、もともとネットワークの重みと有界摂動がそれぞれ同じ差分損失を最小/最大化しようとするゼロサムゲームとして定式化されている。
我々は SAM を 0-1 の損失を用いて再定式化すべきであると主張する。連続緩和として、最小化(最大化)プレイヤーが 0-1 の損失に対して上界(より下界)をサロゲートする単純なアプローチに従う。これは BiSAM と呼ばれる双レベル最適化問題として SAM の新たな定式化につながる。
論文 参考訳(メタデータ) (2024-07-17T20:22:33Z) - Forget Sharpness: Perturbed Forgetting of Model Biases Within SAM Dynamics [10.304082706818562]
シャープネス・アウェア(SAM)摂動の摂動は, 好ましくないモデルバイアスを排除し, 摂動を良くする学習信号を示す。
本結果は,損失面の平坦性を必要としない代替力学原理によってSAMの利点を説明できることを示唆している。
論文 参考訳(メタデータ) (2024-06-10T18:02:48Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - ImbSAM: A Closer Look at Sharpness-Aware Minimization in
Class-Imbalanced Recognition [62.20538402226608]
シャープネス・アウェアの最小化(SAM)は,クラス不均衡条件下での一般化問題に対処できないことを示す。
このボトルネックを克服するために,Im Balanced-SAM (ImbSAM) というクラス認識スムーズネス最適化アルゴリズムを提案する。
我々のImbSAMは、テールクラスと異常に対する顕著なパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2023-08-15T14:46:32Z) - Sharpness-Aware Minimization Alone can Improve Adversarial Robustness [7.9810915020234035]
敵の強靭性の観点から,シャープネス・アウェアの最小化(SAM)について検討する。
その結果,SAMのみを用いることで,通常の訓練に比べてクリーンな精度を犠牲にすることなく,対向ロバスト性を向上できることがわかった。
SAMと対人訓練(AT)は摂動強度の点で異なることが示され、精度と頑健さのトレードオフが異なっている。
論文 参考訳(メタデータ) (2023-05-09T12:39:21Z) - Towards Understanding Sharpness-Aware Minimization [27.666483899332643]
Sharpness-Aware Minimization (SAM) の成功に対する既存の正当化は、PACBayes の一般化に基づいていると論じる。
対角線ネットワークの暗黙バイアスを理論的に解析する。
SAMで標準モデルを微調整することで、非シャープネットワークの特性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-13T15:07:32Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。