論文の概要: Rethinking Sharpness-Aware Minimization as Variational Inference
- arxiv url: http://arxiv.org/abs/2210.10452v1
- Date: Wed, 19 Oct 2022 10:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 13:16:05.587393
- Title: Rethinking Sharpness-Aware Minimization as Variational Inference
- Title(参考訳): 変動推論としてのシャープネス認識最小化の再考
- Authors: Szilvia Ujv\'ary, Zsigmond Telek, Anna Kerekes, Anna M\'esz\'aros,
Ferenc Husz\'ar
- Abstract要約: シャープネス・アウェア (SAM) は、平坦なミニマを求めることによって勾配学習の一般化を改善することを目的としている。
ニューラルネットパラメータのSAMと平均変分推論(MFVI)の接続を確立する。
- 参考スコア(独自算出の注目度): 1.749935196721634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sharpness-aware minimization (SAM) aims to improve the generalisation of
gradient-based learning by seeking out flat minima. In this work, we establish
connections between SAM and Mean-Field Variational Inference (MFVI) of neural
network parameters. We show that both these methods have interpretations as
optimizing notions of flatness, and when using the reparametrisation trick,
they both boil down to calculating the gradient at a perturbed version of the
current mean parameter. This thinking motivates our study of algorithms that
combine or interpolate between SAM and MFVI. We evaluate the proposed
variational algorithms on several benchmark datasets, and compare their
performance to variants of SAM. Taking a broader perspective, our work suggests
that SAM-like updates can be used as a drop-in replacement for the
reparametrisation trick.
- Abstract(参考訳): シャープネスを意識した最小化(SAM)は、平坦なミニマを求めることによって勾配学習の一般化を改善することを目的としている。
本研究では,ニューラルネットワークパラメータのsamと平均場変動推論(mfvi)との接続を確立する。
両手法とも平坦性の概念を最適化する解釈を有しており,再パラメータ化手法を用いた場合,両手法とも沸騰して現在の平均パラメータの摂動バージョンでの勾配を計算する。
この考え方はSAMとMFVIを組み合わせたアルゴリズムの研究を動機付けている。
提案した変分アルゴリズムを複数のベンチマークデータセット上で評価し,その性能をSAMの変分と比較した。
より広い視点から、我々の研究はSAMライクな更新が再パラメータ化のトリックのドロップイン代替として使えることを示唆している。
関連論文リスト
- Monge SAM: Robust Reparameterization-Invariant Sharpness-Aware Minimization Based on Loss Geometry [2.854482269849925]
シャープネスを意識した最小化(SAM)は、逆方向の摂動の勾配に応じてパラメータを更新することにより、平坦な領域を効率的に見つける。
我々はSAMの再パラメータ化不変バージョンであるMonge SAM (M-SAM)を提案する。
理論的にも経験的にも、マルチモーダルな表現アライメントタスクにおいて、この振る舞いを実証する。
論文 参考訳(メタデータ) (2025-02-12T14:40:19Z) - Avoiding spurious sharpness minimization broadens applicability of SAM [13.21265875272573]
シャープネス・アウェア・最小化(SAM)のような曲率正規化技術は、視覚タスクの一般化を改善する上で非常に有望である。
SAMは自然言語処理(NLP)のようなドメインではパフォーマンスが悪く、計算予算の2倍であっても、パフォーマンスが劣化することがよくあります。
そこで我々は,関数の統計量を変更することでのみ曲率を正規化する関数SAMというアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-02-04T15:25:47Z) - Preconditioned Sharpness-Aware Minimization: Unifying Analysis and a Novel Learning Algorithm [39.656014609027494]
シャープネスを意識した最小化(SAM)は、ディープニューラルネットワークベースの学習の一般化性を改善する強力なツールとして登場した。
この寄与はプリコンディショニング(pre)を利用してSAM変種を統一し、統一収束解析だけでなく、貴重な洞察を提供する。
informationSAMと呼ばれる新しいアルゴリズムを導入し、ノイズ推定による勾配の調整によりSAMのいわゆる逆モデル劣化問題に対処する。
論文 参考訳(メタデータ) (2025-01-11T18:05:33Z) - Enhancing Sharpness-Aware Minimization by Learning Perturbation Radius [6.78775404181577]
そこで我々は,PerTurbation radiuS という二段階最適化フレームワークを提案し,シャープネスを意識した最小化アルゴリズムの摂動半径を学習する。
計算機ビジョンと自然言語処理における様々なアーキテクチャとベンチマークデータセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-15T15:40:57Z) - A Universal Class of Sharpness-Aware Minimization Algorithms [57.29207151446387]
我々は、新しいシャープネス尺度を導入し、新しいシャープネス対応目標関数を導出する。
これらの測度がテキスト的に表現可能であることを証明し、トレーニング損失ヘッセン行列の任意の関数を適切なハイパーおよび行列式で表すことを可能にする。
論文 参考訳(メタデータ) (2024-06-06T01:52:09Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Normalization Layers Are All That Sharpness-Aware Minimization Needs [53.799769473526275]
シャープネス認識最小化(SAM)は,ミニマのシャープネスを低減するために提案された。
SAMの逆数ステップにおけるアフィン正規化パラメータ(典型的には総パラメータの0.1%)のみの摂動は、全てのパラメータの摂動よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T08:05:46Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - Improved Deep Neural Network Generalization Using m-Sharpness-Aware
Minimization [14.40189851070842]
シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
近年の研究ではmSAMがSAMよりも精度が高いことが示唆されている。
本稿では,様々なタスクやデータセットにおけるmSAMの包括的評価について述べる。
論文 参考訳(メタデータ) (2022-12-07T00:37:55Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。