論文の概要: Non asymptotic analysis of Adaptive stochastic gradient algorithms and
applications
- arxiv url: http://arxiv.org/abs/2303.01370v1
- Date: Wed, 1 Mar 2023 07:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 13:33:17.915421
- Title: Non asymptotic analysis of Adaptive stochastic gradient algorithms and
applications
- Title(参考訳): 適応確率勾配アルゴリズムの非漸近解析とその応用
- Authors: Antoine Godichon-Baggioni (LPSM (UMR\_8001)), Pierre Tarrago (LPSM
(UMR\_8001))
- Abstract要約: 本論文は, 強凸対象に対する適応勾配アルゴリズムの非解析に係わるものである。
すべての理論的結果は、AdagradアルゴリズムとNewtonアルゴリズムの両方に対する線形回帰および正規化一般化線形モデルに適用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In stochastic optimization, a common tool to deal sequentially with large
sample is to consider the well-known stochastic gradient algorithm.
Nevertheless, since the stepsequence is the same for each direction, this can
lead to bad results in practice in case of ill-conditionned problem. To
overcome this, adaptive gradient algorithms such that Adagrad or Stochastic
Newton algorithms should be prefered. This paper is devoted to the non
asymptotic analyis of these adaptive gradient algorithms for strongly convex
objective. All the theoretical results will be adapted to linear regression and
regularized generalized linear model for both Adagrad and Stochastic Newton
algorithms.
- Abstract(参考訳): 確率最適化において、大きなサンプルを逐次処理する一般的なツールは、よく知られた確率勾配アルゴリズムを考えることである。
それでも、ステップは各方向で同じであるため、条件の悪い問題が発生した場合、これは実行時に悪い結果をもたらす可能性がある。
これを解決するために、Adagrad や Stochastic Newton などの適応勾配アルゴリズムが望ましい。
本稿では,これらの適応勾配アルゴリズムの非漸近的アナリシスについて述べる。
すべての理論的結果は、Adagrad と Stochastic Newton のアルゴリズムの線形回帰および正規化一般化線形モデルに適用される。
関連論文リスト
- Backward error analysis and the qualitative behaviour of stochastic
optimization algorithms: Application to stochastic coordinate descent [1.534667887016089]
一般最適化法の力学を近似した微分方程式のクラスを提案する。
座標降下の場合の修正方程式の安定性について検討する。
論文 参考訳(メタデータ) (2023-09-05T09:39:56Z) - One-step corrected projected stochastic gradient descent for statistical estimation [49.1574468325115]
これは、Fisherスコアリングアルゴリズムの1ステップで修正されたログ様関数の予測勾配勾配に基づいている。
理論およびシミュレーションにより、平均勾配勾配や適応勾配勾配の通常の勾配勾配の代替として興味深いものであることを示す。
論文 参考訳(メタデータ) (2023-06-09T13:43:07Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Random-reshuffled SARAH does not need a full gradient computations [61.85897464405715]
StochAstic Recursive grAdientritHm (SARAH)アルゴリズムは、Gradient Descent (SGD)アルゴリズムのばらつき低減版である。
本稿では,完全勾配の必要性を除去する。
集約された勾配は、SARAHアルゴリズムの完全な勾配の見積もりとなる。
論文 参考訳(メタデータ) (2021-11-26T06:00:44Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Reparametrizing gradient descent [0.0]
本稿では,ノルム適応勾配勾配という最適化アルゴリズムを提案する。
我々のアルゴリズムは準ニュートン法と比較することもできるが、定常点ではなく根を求める。
論文 参考訳(メタデータ) (2020-10-09T20:22:29Z) - Stochastic Approximate Gradient Descent via the Langevin Algorithm [11.36635610546803]
本研究では,不偏勾配が自明に得られない場合の勾配勾配の代替として,近似勾配勾配(SAGD)を導入する。
SAGDは,予測最大化アルゴリズムや変分オートエンコーダといった,一般的な統計的および機械学習問題において,実験的によく機能することを示す。
論文 参考訳(メタデータ) (2020-02-13T14:29:21Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。