論文の概要: Sharpness-Aware Minimization with Z-Score Gradient Filtering for Neural Networks
- arxiv url: http://arxiv.org/abs/2505.02369v3
- Date: Wed, 07 May 2025 14:21:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 12:54:13.636459
- Title: Sharpness-Aware Minimization with Z-Score Gradient Filtering for Neural Networks
- Title(参考訳): ニューラルネットワークのためのZスコア勾配フィルタによるシャープネス認識最小化
- Authors: Juyoung Yun,
- Abstract要約: シャープネスを意識する最小化は、パラメータの近傍で最悪のケース損失を最適化することで、ニューラルネットワークの一般化を改善する。
ZSharpは,階層的Zスコア正規化とパーセンタイルに基づくフィルタリングを併用した,シャープなシャープネスを意識した最適化手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Sharpness-Aware Minimization (SAM) improves neural network generalization by optimizing the worst-case loss within a neighborhood of parameters, yet it perturbs parameters using the entire gradient vector, including components with low statistical significance. We introduce ZSharp, a refined sharpness-aware optimization method that incorporates layer-wise Z-score normalization followed by percentile-based filtering. This process selects only the most statistically significant gradient components-those with large standardized magnitudes-for constructing the perturbation direction. ZSharp retains the standard two-phase SAM structure of ascent and descent while modifying the ascent step to focus on sharper, curvature-relevant directions. We evaluate ZSharp on CIFAR-10, CIFAR-100, and Tiny-ImageNet using a range of models including ResNet, VGG, and Vision Transformers. Across all architectures and datasets, ZSharp consistently achieves higher test accuracy compared to SAM, ASAM, and Friendly-SAM. These results indicate that Z-score-based gradient filtering can enhance the sharpness sensitivity of the update direction, leading to improved generalization in deep neural network training.
- Abstract(参考訳): SAM(Sharpness-Aware Minimization)は、パラメータの近傍で最悪のケース損失を最適化することで、ニューラルネットワークの一般化を改善するが、統計学的重要性の低いコンポーネントを含む勾配ベクトル全体を使用してパラメータを摂動させる。
ZSharpは,階層的Zスコア正規化とパーセンタイルに基づくフィルタリングを併用した,シャープなシャープネスを意識した最適化手法である。
このプロセスは、摂動方向を構成するために、大きな標準等級を持つ最も統計的に重要な勾配成分のみを選択する。
ZSharpは、上昇と降下の標準的な二相SAM構造を維持しつつ、より鋭く曲率関係のある方向に集中するように昇華ステップを変更している。
我々は、CIFAR-10、CIFAR-100、Tiny-ImageNet上で、ResNet、VGG、Vision Transformersなどのモデルを用いてZSharpを評価する。
すべてのアーキテクチャとデータセットに対して、ZSharpはSAM、ASAM、Friendly-SAMよりも高いテスト精度を実現している。
これらの結果は,Zスコアに基づく勾配フィルタリングにより更新方向のシャープネス感度が向上し,ディープニューラルネットワークトレーニングにおける一般化が向上することが示唆された。
関連論文リスト
- Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - CR-SAM: Curvature Regularized Sharpness-Aware Minimization [8.248964912483912]
Sharpness-Aware Minimization (SAM) は,1段階の勾配上昇を近似として,最悪のケース損失を最小限に抑え,一般化性を高めることを目的としている。
本稿では,トレーニングとテストセットの両面における損失景観の曲率を正確に測定する正規化ヘッセントレースを提案する。
特に、損失景観の過度な非線形性に対抗するために、曲率正規化SAM(CR-SAM)を提案する。
論文 参考訳(メタデータ) (2023-12-21T03:46:29Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。