論文の概要: Randomized Coordinate Subgradient Method for Nonsmooth Optimization
- arxiv url: http://arxiv.org/abs/2206.14981v1
- Date: Thu, 30 Jun 2022 02:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:14:16.236497
- Title: Randomized Coordinate Subgradient Method for Nonsmooth Optimization
- Title(参考訳): 非平滑最適化のためのランダム化座標次法
- Authors: Lei Zhao and Ding Chen and Daoli Zhu and Xiao Li
- Abstract要約: 非滑らかな最適化は工学分野における幅広い応用を見出す。
本稿では,Randomized Coordinate Subgradient Method (RCS) を用いて,非滑らかな座標問題の解法を提案する。
- 参考スコア(独自算出の注目度): 10.366968510541952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonsmooth optimization finds wide applications in many engineering fields. In
this work, we propose to utilize the {Randomized Coordinate Subgradient Method}
(RCS) for solving both nonsmooth convex and nonsmooth nonconvex (nonsmooth
weakly convex) optimization problems. At each iteration, RCS randomly selects
one block coordinate rather than all the coordinates to update. Motivated by
practical applications, we consider the {linearly bounded subgradients
assumption} for the objective function, which is much more general than the
Lipschitz continuity assumption. Under such a general assumption, we conduct
thorough convergence analysis for RCS in both convex and nonconvex cases and
establish both expected convergence rate and almost sure asymptotic convergence
results. In order to derive these convergence results, we establish a
convergence lemma and the relationship between the global metric subregularity
properties of a weakly convex function and its Moreau envelope, which are
fundamental and of independent interests. Finally, we conduct several
experiments to show the possible superiority of RCS over the subgradient
method.
- Abstract(参考訳): 非滑らかな最適化は多くの工学分野において幅広い応用を見出す。
本研究では,非平滑凸および非平滑凸(非平滑凸)最適化問題の解法として {Randomized Coordinate Subgradient Method} (RCS) を提案する。
各イテレーションでrcsは更新するすべての座標ではなく、1つのブロック座標をランダムに選択する。
実用的応用によって動機づけられた目的函数に対する {linearly bounded subgradients assumption} を考えるが、これはリプシッツ連続性仮定よりもはるかに一般である。
このような一般的な仮定の下で, 凸および非凸のいずれにおいてもrcsの徹底的な収束解析を行い, 期待収束率と漸近収束結果の両立を図る。
これらの収束結果を導出するために、収束補題を確立し、弱凸函数の大域的計量部分正則性とモローエンベロープの関係を、基本的かつ独立的関心事である。
最後に, 下位勾配法におけるrcsの優位性を示す実験を複数実施した。
関連論文リスト
- Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Revisiting Subgradient Method: Complexity and Convergence Beyond Lipschitz Continuity [24.45688490844496]
次進法は非滑らかな最適化のための最も基本的なアルゴリズムスキームの1つである。
本研究では、まず、非Lipschitz凸と弱凸最小化をカバーするために、下次法の典型的な反復複雑性結果を拡張する。
論文 参考訳(メタデータ) (2023-05-23T15:26:36Z) - Convergence of Adam Under Relaxed Assumptions [72.24779199744954]
我々は、アダムがより現実的な条件下で、$O(epsilon-4)$勾配複雑性で$epsilon$-定常点に収束することを示している。
また、Adamの分散還元版を$O(epsilon-3)$の加速勾配複雑性で提案する。
論文 参考訳(メタデータ) (2023-04-27T06:27:37Z) - Decentralized Weakly Convex Optimization Over the Stiefel Manifold [28.427697270742947]
我々は分散環境でスティーフェル多様体に焦点をあて、$nMn log-1)$のエージェントの連結ネットワークをテストする。
そこで本研究では,nMn log-1 以下の自然ステーションを強制的に強制する分散下位段階法 (DRSM)$ という手法を提案する。
論文 参考訳(メタデータ) (2023-03-31T02:56:23Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - A Newton-CG based barrier-augmented Lagrangian method for general nonconvex conic optimization [53.044526424637866]
本稿では、2つの異なる対象の一般円錐最適化を最小化する近似二階定常点(SOSP)について検討する。
特に、近似SOSPを見つけるためのNewton-CGベースの拡張共役法を提案する。
論文 参考訳(メタデータ) (2023-01-10T20:43:29Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - Generalization in Supervised Learning Through Riemannian Contraction [4.3604518673788135]
教師付き学習環境では、計量 0 がアセシアンレート $lambda で収縮している場合、それは一様に$math であることを示す。
結果は、連続および安定な $-time において、勾配と決定論的損失曲面を保っている。
それらは、Descent$凸面や強い凸損失面など、ある種の線形な設定で最適であることを示すことができる。
論文 参考訳(メタデータ) (2022-01-17T23:08:47Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Better Theory for SGD in the Nonconvex World [2.6397379133308214]
大規模な非最適化問題は、現代の機械学習ではユビキタスである。
我々は, 広範囲の合成ミニバッチサイズがグラディエントDescent (SG) 問題に与える影響について実験を行った。
論文 参考訳(メタデータ) (2020-02-09T09:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。