論文の概要: SADAM: Stochastic Adam, A Stochastic Operator for First-Order
Gradient-based Optimizer
- arxiv url: http://arxiv.org/abs/2205.10247v1
- Date: Fri, 20 May 2022 15:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 19:49:44.529963
- Title: SADAM: Stochastic Adam, A Stochastic Operator for First-Order
Gradient-based Optimizer
- Title(参考訳): SADAM: 第一次勾配に基づく最適化のための確率演算子Stochastic Adam
- Authors: Wei Zhang, Yu Bao
- Abstract要約: 本稿では,一階降下アルゴリズムの演算子として行う戦略を提案し,解析し,一般化する。
既存のアルゴリズムとは異なり、提案手法ではバッチやサンプリング技術は一切必要としない。
- 参考スコア(独自算出の注目度): 8.93274096260726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, to efficiently help escape the stationary and saddle points, we
propose, analyze, and generalize a stochastic strategy performed as an operator
for a first-order gradient descent algorithm in order to increase the target
accuracy and reduce time consumption. Unlike existing algorithms, the proposed
stochastic the strategy does not require any batches and sampling techniques,
enabling efficient implementation and maintaining the initial first-order
optimizer's convergence rate, but provides an incomparable improvement of
target accuracy when optimizing the target functions. In short, the proposed
strategy is generalized, applied to Adam, and validated via the decomposition
of biomedical signals using Deep Matrix Fitting and another four peer
optimizers. The validation results show that the proposed random strategy can
be easily generalized for first-order optimizers and efficiently improve the
target accuracy.
- Abstract(参考訳): 本研究では,静止点とサドル点の回避を支援するため,一階勾配降下アルゴリズムの演算子として行う確率的戦略を提案,解析,一般化し,目標精度の向上と時間消費の低減を図る。
既存のアルゴリズムと異なり,提案手法ではバッチ処理やサンプリング処理を一切必要とせず,初期1次オプティマイザの収束率の効率的な実装と維持が可能であるが,目標関数を最適化する際の目標精度の相容れない改善を提供する。
要するに、提案された戦略は一般化され、adamに適用され、深層マトリックスフィッティングと他の4つのピアオプティマイザを用いた生体信号の分解によって検証される。
検証結果は,提案したランダム戦略を1次オプティマイザに容易に一般化し,目標精度を効率的に向上できることを示す。
関連論文リスト
- Beyond Single-Model Views for Deep Learning: Optimization versus
Generalizability of Stochastic Optimization Algorithms [13.134564730161983]
本稿では、勾配降下(SGD)とその変種に着目し、ディープラーニングの最適化に新しいアプローチを採用する。
我々はSGDとその変種がSAMのような平らなミニマと同等の性能を示すことを示した。
本研究は、トレーニング損失とホールドアウト精度の関係、およびSGDとノイズ対応変種の性能について、いくつかの重要な知見を明らかにした。
論文 参考訳(メタデータ) (2024-03-01T14:55:22Z) - Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Optimistic Optimisation of Composite Objective with Exponentiated Update [2.1700203922407493]
このアルゴリズムは指数勾配と$p$-normアルゴリズムの組み合わせと解釈できる。
彼らはシーケンス依存の後悔の上界を達成し、スパース目標決定変数の最もよく知られた境界と一致する。
論文 参考訳(メタデータ) (2022-08-08T11:29:55Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - A Stochastic Sequential Quadratic Optimization Algorithm for Nonlinear
Equality Constrained Optimization with Rank-Deficient Jacobians [11.03311584463036]
滑らかな非線形等式制約最適化問題の解法として, 逐次2次最適化アルゴリズムを提案する。
数値実験の結果、このアルゴリズムは一般的な代替品と比較して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-24T13:46:52Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Projection-Free Adaptive Gradients for Large-Scale Optimization [22.0439695290991]
フランク=ウルフアルゴリズムは、目的から近似した一階情報のみをクエリすることで、両方の計算負担を軽減するため、ユニークな位置を占める。
本手法は,制約付き最適化のための適応アルゴリズムの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-09-29T15:56:12Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。