論文の概要: An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems
- arxiv url: http://arxiv.org/abs/2306.17470v1
- Date: Fri, 30 Jun 2023 08:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:15:01.276809
- Title: An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems
- Title(参考訳): 固有値最適化問題に対する確率的合成最適化アルゴリズム
- Authors: Cl\'ement Lezane, Crist\'obal Guzm\'an, Alexandre d'Aspremont
- Abstract要約: 相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
- 参考スコア(独自算出の注目度): 76.2042837251496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we revisit the problem of solving large-scale semidefinite
programs using randomized first-order methods and stochastic smoothing. We
introduce two oblivious stochastic mirror descent algorithms based on a
complementary composite setting. One algorithm is designed for non-smooth
objectives, while an accelerated version is tailored for smooth objectives.
Remarkably, both algorithms work without prior knowledge of the Lipschitz
constant or smoothness of the objective function. For the non-smooth case with
$\mathcal{M}-$bounded oracles, we prove a convergence rate of $ O(
{\mathcal{M}}/{\sqrt{T}} ) $. For the $L$-smooth case with a feasible set
bounded by $D$, we derive a convergence rate of $ O( {L^2
D^2}/{(T^{2}\sqrt{T})} + {(D_0^2+\sigma^2)}/{\sqrt{T}} )$, where $D_0$ is the
starting distance to an optimal solution, and $ \sigma^2$ is the stochastic
oracle variance. These rates had only been obtained so far by either assuming
prior knowledge of the Lipschitz constant or the starting distance to an
optimal solution. We further show how to extend our framework to relative scale
and demonstrate the efficiency and robustness of our methods on large scale
semidefinite programs.
- Abstract(参考訳): 本稿では,ランダム化一階法と確率的平滑化を用いた大規模半定値プログラムの解法について再検討する。
相補的な合成条件に基づく2つの難解な確率的ミラー降下アルゴリズムを導入する。
1つのアルゴリズムは非滑らかな目的のために設計され、加速されたバージョンは滑らかな目的のために調整されている。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
$\mathcal{M}-$bounded oracles を持つ非滑らかなケースに対しては、$ O( {\mathcal{M}}/{\sqrt{T}} ) $ の収束率を証明する。
D$で有界な集合を持つ$L$-smoothの場合、$O( {L^2 D^2}/{(T^{2}\sqrt{T})} + {(D_0^2+\sigma^2)}/{\sqrt{T}} )$の収束率を導出する。
これらの速度は、リプシッツ定数の事前知識を仮定するか、最適解への出発距離を仮定して得られるだけである。
さらに、我々のフレームワークを相対的な規模に拡張する方法を示し、大規模半確定プログラム上での手法の効率性と堅牢性を示す。
関連論文リスト
- Obtaining Lower Query Complexities through Lightweight Zeroth-Order Proximal Gradient Algorithms [65.42376001308064]
複素勾配問題に対する2つの分散化ZO推定器を提案する。
我々は、現在最先端の機能複雑性を$mathcalOleft(minfracdn1/2epsilon2, fracdepsilon3right)$から$tildecalOleft(fracdepsilon2right)$に改善する。
論文 参考訳(メタデータ) (2024-10-03T15:04:01Z) - An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - A One-Sample Decentralized Proximal Algorithm for Non-Convex Stochastic
Composite Optimization [10.762749887051546]
本稿では,Proxcal$DASA-GTとProxcal$DASA-Aの2時間スケールアルゴリズムを提案する。
以前の作業とは異なり、我々のアルゴリズムは、大きなバッチサイズ、より複雑な単位演算、より強い仮定を必要とせずに、同等の複雑さを達成する。
論文 参考訳(メタデータ) (2023-02-20T05:16:18Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - An Optimal Stochastic Algorithm for Decentralized Nonconvex Finite-sum
Optimization [25.21457349137344]
私たちは、DEARESTが少なくとも$mathcal O(+sqrtmnLvarepsilon-2)$ 1次オラクル(IFO)コールと$mathcal O(Lvarepsilon-2/sqrt1-lambda_W)$通信ラウンドを必要とすることを示す証拠を示します。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - Lifted Primal-Dual Method for Bilinearly Coupled Smooth Minimax
Optimization [47.27237492375659]
双線型結合されたミニマックス問題:$min_x max_y f(x) + ytop A x - h(y)$, ここでは$f$と$h$はどちらも強凸滑らかな関数である。
Omega(sqrtfracL_xmu_x + frac|A|sqrtmu_x,mu_y) log(frac1vareps) の低い複雑性境界を達成した1次アルゴリズムは知られていない。
論文 参考訳(メタデータ) (2022-01-19T05:56:19Z) - Asynchronous Stochastic Optimization Robust to Arbitrary Delays [54.61797739710608]
遅延勾配の最適化を考えると、ステップt$毎に、アルゴリズムは古い計算を使って更新する - d_t$ for arbitrary delay $d_t gradient。
本実験は,遅延分布が歪んだり重くなったりした場合のアルゴリズムの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2021-06-22T15:50:45Z) - Maximizing Determinants under Matroid Constraints [69.25768526213689]
我々は、$det(sum_i in Sv_i v_i v_itop)$が最大になるような基底を$S$$$$M$とする問題を研究する。
この問題は、実験的なデザイン、商品の公平な割り当て、ネットワーク設計、機械学習など、さまざまな分野に現れている。
論文 参考訳(メタデータ) (2020-04-16T19:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。