論文の概要: X-SAM: Boosting Sharpness-Aware Minimization with Dominant-Eigenvector Gradient Correction
- arxiv url: http://arxiv.org/abs/2601.10251v1
- Date: Thu, 15 Jan 2026 10:19:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.096771
- Title: X-SAM: Boosting Sharpness-Aware Minimization with Dominant-Eigenvector Gradient Correction
- Title(参考訳): X-SAM:支配ベクトル勾配補正によるシャープネス認識最小化
- Authors: Hongru Duan, Yongle Chen, Lei Guan,
- Abstract要約: スペクトルおよび幾何学的観点からシャープネス認識最小化(SAM)について検討する。
本稿では,トップ固有ベクトルに沿った分解によって勾配を補正する明示的な固有ベクトル整列SAM(X-SAM)を提案する。
我々は、X-SAMの収束と優れた一般化を証明し、理論的および実用的両方の利点を実証する広範な実験的な評価を行った。
- 参考スコア(独自算出の注目度): 7.8091155908891965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sharpness-Aware Minimization (SAM) aims to improve generalization by minimizing a worst-case perturbed loss over a small neighborhood of model parameters. However, during training, its optimization behavior does not always align with theoretical expectations, since both sharp and flat regions may yield a small perturbed loss. In such cases, the gradient may still point toward sharp regions, failing to achieve the intended effect of SAM. To address this issue, we investigate SAM from a spectral and geometric perspective: specifically, we utilize the angle between the gradient and the leading eigenvector of the Hessian as a measure of sharpness. Our analysis illustrates that when this angle is less than or equal to ninety degrees, the effect of SAM's sharpness regularization can be weakened. Furthermore, we propose an explicit eigenvector-aligned SAM (X-SAM), which corrects the gradient via orthogonal decomposition along the top eigenvector, enabling more direct and efficient regularization of the Hessian's maximum eigenvalue. We prove X-SAM's convergence and superior generalization, with extensive experimental evaluations confirming both theoretical and practical advantages.
- Abstract(参考訳): Sharpness-Aware Minimization (SAM) は、モデルパラメータの小さな近傍で最悪の乱れを最小化することで、一般化を改善することを目的としている。
しかし、訓練中は、その最適化挙動は必ずしも理論上の期待と一致しない。
そのような場合、勾配は依然として鋭い領域を指しており、SAMの意図した効果を達成できない。
この問題に対処するために、スペクトル的および幾何学的観点からSAMを調査し、具体的には、勾配とヘッセンの先頭固有ベクトルの間の角度を鋭さの尺度として利用する。
解析の結果,この角度が90度以下であれば,SAMのシャープネス正則化の効果は弱まることが示唆された。
さらに,トップ固有ベクトルに沿った直交分解によって勾配を補正する明示的固有ベクトル整列SAM (X-SAM) を提案し,ヘッセンの最大固有値のより直接的で効率的な正則化を可能にする。
我々は、X-SAMの収束と優れた一般化を証明し、理論的および実用的両方の利点を実証する広範な実験的な評価を行った。
関連論文リスト
- Explicit Eigenvalue Regularization Improves Sharpness-Aware Minimization [37.515131384121204]
シャープネス・アウェアの最小化(SAM)は、様々なタスクにおける一般化を改善する効果において大きな注目を集めている。
我々はヘッセンの最大固有値を用いてSAMの訓練力学を鋭さの尺度として分析する。
本稿では,トップヘッセン固有値の正規化を目的としたアルゴリズムであるEigen-SAMを紹介する。
論文 参考訳(メタデータ) (2025-01-22T06:03:16Z) - Bilateral Sharpness-Aware Minimization for Flatter Minima [61.17349662062522]
Sharpness-Aware Minimization (SAM) は Max-Sharpness (MaxS) を減らして一般化を促進する
本稿では,現在の重量を囲む周辺地域のトレーニング損失と最小損失の差を利用して,Min-Sharpness (MinS) と表現する。
MaxSとMinSをマージすることで、最適化中により平坦な方向を示すより良いFIを作成しました。特に、このFIをSAMと組み合わせて提案されたバイラテラルSAM(BSAM)に組み込むことにより、SAMよりもより平坦な最小値を求めることができます。
論文 参考訳(メタデータ) (2024-09-20T03:01:13Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Critical Influence of Overparameterization on Sharpness-aware Minimization [12.321517302762558]
シャープネス・アウェアの最小化(SAM)は、ディープニューラルネットワークトレーニングにおける一般化を改善する効果において、かなりの注目を集めている。
この研究は、SAMの有効性に重要な影響を示す経験的および理論的知見の両方を提示する。
論文 参考訳(メタデータ) (2023-11-29T11:19:50Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon [15.332235979022036]
シャープネス認識最小化(SAM)アルゴリズムは、ロス・ヘッセンの大きな固有値を制御することが示されている。
SAMは学習軌跡全体を通して固有値の強い正規化を提供することを示す。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
論文 参考訳(メタデータ) (2023-02-17T04:51:20Z) - The Dynamics of Sharpness-Aware Minimization: Bouncing Across Ravines
and Drifting Towards Wide Minima [41.961056785108845]
我々は、ディープネットワークの勾配に基づく最適化手法であるシャープネス認識最小化について検討する。
SAM に凸2次対象を施すと、最も大きい曲率で最小方向の両辺の間で振動するサイクルに収束することを示す。
非二次的の場合、そのような振動は、ヘッセンのスペクトルノルムに基づいて、より小さなステップサイズで勾配降下を効果的に実行することを示す。
論文 参考訳(メタデータ) (2022-10-04T10:34:37Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。