論文の概要: Asymptotic normality and optimality in nonsmooth stochastic
approximation
- arxiv url: http://arxiv.org/abs/2301.06632v1
- Date: Mon, 16 Jan 2023 23:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 15:14:16.833442
- Title: Asymptotic normality and optimality in nonsmooth stochastic
approximation
- Title(参考訳): 非滑らか確率近似における漸近正規性と最適性
- Authors: Damek Davis, Dmitriy Drusvyatskiy, Liwei Jiang
- Abstract要約: Polyak と Juditsky の論文は、滑らかな方程式を解くための近似が中心極限を持つことを示した。
このラインでの長年にわたるオープンな疑問は、同様の保証が重要な非滑らかな問題に当てはまるかどうかである。
- 参考スコア(独自算出の注目度): 8.805688232946471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In their seminal work, Polyak and Juditsky showed that stochastic
approximation algorithms for solving smooth equations enjoy a central limit
theorem. Moreover, it has since been argued that the asymptotic covariance of
the method is best possible among any estimation procedure in a local minimax
sense of H\'{a}jek and Le Cam. A long-standing open question in this line of
work is whether similar guarantees hold for important non-smooth problems, such
as stochastic nonlinear programming or stochastic variational inequalities. In
this work, we show that this is indeed the case.
- Abstract(参考訳): PolyakとJuditskyは、滑らかな方程式を解く確率近似アルゴリズムは中心極限定理を享受することを示した。
さらに、この方法の漸近的共分散は、H\'{a}jek と Le Cam の局所ミニマックス感覚における任意の推定手順の中で最も可能であると論じられている。
この行の長年の未解決の問題は、確率的非線形計画法や確率的変分不等式など、同様の保証が重要な非滑らかな問題に当てはまるかどうかである。
この研究では、これが事実であることを示す。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities [91.46841922915418]
本稿では,一階変分法の理論解析のための統一的アプローチを提案する。
提案手法は非線形勾配問題とモンテカルロの強い問題の両方をカバーする。
凸法最適化問題の場合、オラクルに強く一致するような境界を与える。
論文 参考訳(メタデータ) (2023-05-25T11:11:31Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Distributed Stochastic Optimization under a General Variance Condition [13.911633636387059]
分散最適化は最近、大規模な機械学習問題の解決に効果があるとして、大きな注目を集めている。
我々は、古典的フェデレーション平均化(Avg)を再考し、滑らかな非対象関数に対して、緩やかな分散しか持たない収束結果を確立する。
ほぼ1つの定常収束点も勾配条件の下で成立する。
論文 参考訳(メタデータ) (2023-01-30T05:48:09Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Stochastic optimization with momentum: convergence, fluctuations, and
traps avoidance [0.0]
本稿では,重球法,ネステロフ加速勾配法(S-NAG),広く使用されているアダム法など,勾配勾配勾配のいくつかの変種を統一する一般最適化手法について検討する。
この回避は、非自明な常微分方程式のノイズ離散化として研究される。
論文 参考訳(メタデータ) (2020-12-07T19:14:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。