論文の概要: Layer-wise Adaptive Gradient Norm Penalizing Method for Efficient and Accurate Deep Learning
- arxiv url: http://arxiv.org/abs/2503.14205v1
- Date: Tue, 18 Mar 2025 12:30:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:15:08.088643
- Title: Layer-wise Adaptive Gradient Norm Penalizing Method for Efficient and Accurate Deep Learning
- Title(参考訳): 能率的・高精度深層学習のための層幅適応型グラディエントノルムペナライズ法
- Authors: Sunwoo Lee,
- Abstract要約: シャープネス認識最小化(SAM)は、ニューラルネットワークの一般化性能を改善するために知られている。
SAMは、高価なモデル摂動コストのため、現実世界のアプリケーションではまだ広く使われていない。
本稿では,SAMの高コストな計算コストに対処しつつ,より優れた一般化性能を維持しつつ,軽量な層次勾配法則のペナル化手法を提案する。
- 参考スコア(独自算出の注目度): 7.6677237955415
- License:
- Abstract: Sharpness-aware minimization (SAM) is known to improve the generalization performance of neural networks. However, it is not widely used in real-world applications yet due to its expensive model perturbation cost. A few variants of SAM have been proposed to tackle such an issue, but they commonly do not alleviate the cost noticeably. In this paper, we propose a lightweight layer-wise gradient norm penalizing method that tackles the expensive computational cost of SAM while maintaining its superior generalization performance. Our study empirically proves that the gradient norm of the whole model can be effectively suppressed by penalizing the gradient norm of only a few critical layers. We also theoretically show that such a partial model perturbation does not harm the convergence rate of SAM, allowing them to be safely adapted in real-world applications. To demonstrate the efficacy of the proposed method, we perform extensive experiments comparing the proposed method to mini-batch SGD and the conventional SAM using representative computer vision and language modeling benchmarks.
- Abstract(参考訳): シャープネス認識最小化(SAM)は、ニューラルネットワークの一般化性能を改善するために知られている。
しかし、高価なモデル摂動コストのため、現実世界のアプリケーションではまだ広く使われていない。
このような問題に対処するためにSAMのいくつかの変種が提案されているが、一般的にコストを著しく軽減するものではない。
本稿では,SAMの高コストな計算コストに対処しつつ,より優れた一般化性能を維持しつつ,軽量な層幅勾配正規化法を提案する。
本研究は, モデル全体の勾配ノルムが, 少数の臨界層のみの勾配ノルムをペナル化することにより効果的に抑制できることを実証的に証明する。
また、そのような部分的モデル摂動がSAMの収束率に悪影響を及ぼさないことを示し、現実の応用に安全に適応できるようにする。
提案手法の有効性を実証するために,提案手法を汎用コンピュータビジョンと言語モデルベンチマークを用いてミニバッチSGDと従来のSAMと比較した広範囲な実験を行った。
関連論文リスト
- GCSAM: Gradient Centralized Sharpness Aware Minimization [45.05109291721135]
シャープネス認識最小化(SAM)は、ロスランドスケープのシャープネスを低減するための効果的な最適化手法として登場した。
本稿では、勾配集中化(GC)を組み込んで収束を安定化・加速するグラディエント・シャープネス・アウェア最小化(GCSAM)を提案する。
GCSAMは、一般化と計算効率の点でSAMとAdamを一貫して上回っている。
論文 参考訳(メタデータ) (2025-01-20T16:42:31Z) - μP$^2$: Effective Sharpness Aware Minimization Requires Layerwise Perturbation Scaling [49.25546155981064]
シャープネス認識最小化(SAM)を用いたニューラルネットワークの無限幅限界について検討する。
この結果から, SAMのダイナミクスは, 広範なニューラルネットワークにおいて, 最後の層のみにSAMを適用することで効果的に低下することが判明した。
対照的に、階層的なスケーリングを伴う安定したパラメータ化を識別し、それを $textitMaximal Update and Perturbation $$mu$P$2$ と呼びます。
論文 参考訳(メタデータ) (2024-10-31T16:32:04Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Stabilizing Sharpness-aware Minimization Through A Simple Renormalization Strategy [12.050160495730381]
SAM ( sharpness-aware generalization) は性能向上に驚くべき効果があることから注目されている。
本稿では, 安定SAM (SSAM) と呼ばれる単純な再正規化戦略を提案する。
我々の戦略は実装が容易で、SAMとその変種と統合するのに十分な柔軟性があり、ほとんど計算コストがかからない。
論文 参考訳(メタデータ) (2024-01-14T10:53:36Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。