論文の概要: mSAM: Micro-Batch-Averaged Sharpness-Aware Minimization
- arxiv url: http://arxiv.org/abs/2302.09693v1
- Date: Sun, 19 Feb 2023 23:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:04:40.275752
- Title: mSAM: Micro-Batch-Averaged Sharpness-Aware Minimization
- Title(参考訳): msam: マイクロバッチ平均シャープネス最小化
- Authors: Kayhan Behdin, Qingquan Song, Aman Gupta, Ayan Acharya, David Durfee,
Borja Ocejo, Sathiya Keerthi, Rahul Mazumder
- Abstract要約: シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
我々は最近開発されたフラットネス解析のためのよく研究された一般的なフレームワークを拡張し、シャープネスを意識した最小化のための分散計算が理論的にはフラットネスの最小化を達成できることを示す。
- 参考スコア(独自算出の注目度): 13.714190542866355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep learning models are over-parameterized, where different optima
can result in widely varying generalization performance. To account for this,
Sharpness-Aware Minimization (SAM) modifies the underlying loss function to
guide descent methods towards flatter minima, which arguably have better
generalization abilities. In this paper, we focus on a variant of SAM known as
micro-batch SAM (mSAM), which, during training, averages the updates generated
by adversarial perturbations across several disjoint shards (micro batches) of
a mini-batch. We extend a recently developed and well-studied general framework
for flatness analysis to show that distributed gradient computation for
sharpness-aware minimization theoretically achieves even flatter minima. In
order to support this theoretical superiority, we provide a thorough empirical
evaluation on a variety of image classification and natural language processing
tasks. We also show that contrary to previous work, mSAM can be implemented in
a flexible and parallelizable manner without significantly increasing
computational costs. Our practical implementation of mSAM yields superior
generalization performance across a wide range of tasks compared to SAM,
further supporting our theoretical framework.
- Abstract(参考訳): 現代のディープラーニングモデルは過度にパラメータ化され、異なる最適化が広く異なる一般化性能をもたらす。
これを説明するために、Sharpness-Aware Minimization (SAM) は、基礎となる損失関数を修正し、よりフラットなミニマへ導出する方法を導出する。
本稿では,マイクロバッチ SAM (mSAM) と呼ばれるSAMの変種に着目し,マイクロバッチのいくつかの相反するシャード(マイクロバッチ)にまたがる対向的摂動によって生じる更新を平均化する。
本稿では,最近開発された平坦性解析の汎用フレームワークを拡張し,シャープネスを認識できる最小化のための分散勾配計算が理論的により平坦な最小化を実現することを示す。
この理論上の優位性をサポートするために,様々な画像分類と自然言語処理タスクについて,徹底した経験的評価を行う。
また, 従来の研究とは対照的に, mSAM は計算コストを大幅に増大させることなく, 柔軟かつ並列的に実装可能であることを示す。
mSAM の実践的な実装は,SAM と比較して幅広いタスクにおいて優れた一般化性能を示し,理論的枠組みをさらに支持する。
関連論文リスト
- Sharpness-Aware Minimization Efficiently Selects Flatter Minima Late in Training [47.25594539120258]
Sharpness-Aware Minimization (SAM) はトレーニングの遅滞時に効率よくフラットなミニマを選択する。
SAMの訓練の終わりに応用されたいくつかのエポックでさえ、完全なSAMトレーニングとほぼ同じ一般化と解のシャープネスをもたらす。
我々は、最終解の物性を形作る上で、最終相で選択した最適化法がより重要であると推測する。
論文 参考訳(メタデータ) (2024-10-14T10:56:42Z) - Bilateral Sharpness-Aware Minimization for Flatter Minima [61.17349662062522]
Sharpness-Aware Minimization (SAM) は Max-Sharpness (MaxS) を減らして一般化を促進する
本稿では,現在の重量を囲む周辺地域のトレーニング損失と最小損失の差を利用して,Min-Sharpness (MinS) と表現する。
MaxSとMinSをマージすることで、最適化中により平坦な方向を示すより良いFIを作成しました。特に、このFIをSAMと組み合わせて提案されたバイラテラルSAM(BSAM)に組み込むことにより、SAMよりもより平坦な最小値を求めることができます。
論文 参考訳(メタデータ) (2024-09-20T03:01:13Z) - Friendly Sharpness-Aware Minimization [62.57515991835801]
シャープネス・アウェアの最小化(SAM)は、トレーニング損失とロスシャープネスの両方を最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
対向性摂動におけるバッチ特異的勾配雑音の主な役割,すなわち現在のミニバッチ勾配について検討する。
逆勾配雑音成分を分解することにより、全勾配のみに依存すると一般化が低下し、除くと性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-19T01:39:33Z) - Stabilizing Sharpness-aware Minimization Through A Simple Renormalization Strategy [12.050160495730381]
SAM ( sharpness-aware generalization) は性能向上に驚くべき効果があることから注目されている。
本稿では, 安定SAM (SSAM) と呼ばれる単純な再正規化戦略を提案する。
我々の戦略は実装が容易で、SAMとその変種と統合するのに十分な柔軟性があり、ほとんど計算コストがかからない。
論文 参考訳(メタデータ) (2024-01-14T10:53:36Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Improved Deep Neural Network Generalization Using m-Sharpness-Aware
Minimization [14.40189851070842]
シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
近年の研究ではmSAMがSAMよりも精度が高いことが示唆されている。
本稿では,様々なタスクやデータセットにおけるmSAMの包括的評価について述べる。
論文 参考訳(メタデータ) (2022-12-07T00:37:55Z) - Towards Efficient and Scalable Sharpness-Aware Minimization [81.22779501753695]
内部勾配の上昇を周期的に計算する新しいアルゴリズム LookSAM を提案する。
LookSAMはSAMと同じような精度を実現し、非常に高速である。
Vision Transformer(ViTs)のトレーニングでバッチサイズのスケールアップに成功したのは,私たちが初めてです。
論文 参考訳(メタデータ) (2022-03-05T11:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。