論文の概要: Stochastic Gauss-Newton Algorithms for Nonconvex Compositional
Optimization
- arxiv url: http://arxiv.org/abs/2002.07290v2
- Date: Thu, 2 Jul 2020 20:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 13:01:28.008559
- Title: Stochastic Gauss-Newton Algorithms for Nonconvex Compositional
Optimization
- Title(参考訳): 非凸構成最適化のための確率ガウスニュートンアルゴリズム
- Authors: Quoc Tran-Dinh and Nhan H. Pham and Lam M. Nguyen
- Abstract要約: 我々は,非構成最適化問題のクラスを解くための2つの新しいガウスニュートンアルゴリズムを開発した。
標準的な仮定では、期待と有限サムの設定の両方を考慮する。
- 参考スコア(独自算出の注目度): 26.313415590777858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop two new stochastic Gauss-Newton algorithms for solving a class of
non-convex stochastic compositional optimization problems frequently arising in
practice. We consider both the expectation and finite-sum settings under
standard assumptions, and use both classical stochastic and SARAH estimators
for approximating function values and Jacobians. In the expectation case, we
establish $\mathcal{O}(\varepsilon^{-2})$ iteration-complexity to achieve a
stationary point in expectation and estimate the total number of stochastic
oracle calls for both function value and its Jacobian, where $\varepsilon$ is a
desired accuracy. In the finite sum case, we also estimate
$\mathcal{O}(\varepsilon^{-2})$ iteration-complexity and the total oracle calls
with high probability. To our best knowledge, this is the first time such
global stochastic oracle complexity is established for stochastic Gauss-Newton
methods. Finally, we illustrate our theoretical results via two numerical
examples on both synthetic and real datasets.
- Abstract(参考訳): 本研究では,非凸確率的構成最適化問題を解くための2つの新しい確率的ガウス・ニュートンアルゴリズムを開発した。
標準仮定の下では期待と有限サムの設定の両方を考慮し、古典確率およびSARAH推定器を用いて関数値とジャコビアンを近似する。
期待の場合、予測における定常点を達成するために$\mathcal{O}(\varepsilon^{-2})$ iteration-complexityを確立し、関数値とジャコビアンの両方に対する確率的オラクル呼び出しの総数を推定する($\varepsilon$は所望の精度である)。
有限和の場合、$\mathcal{o}(\varepsilon^{-2})$イテレーション複雑度とオラクルの総呼び出しは高い確率で見積もる。
我々の知る限り、確率的ガウス・ニュートン法のためにこのような大域的確率的オラクル複雑性が確立されたのはこれが初めてである。
最後に,合成データと実データの両方について2つの数値例を用いて理論的結果を示す。
関連論文リスト
- Fully Zeroth-Order Bilevel Programming via Gaussian Smoothing [7.143879014059895]
ビルベル問題の解法としてゼロ階近似アルゴリズムを研究・解析する。
我々の知る限りでは、完全ゼロ階二階最適化アルゴリズムのためにサンプル境界が確立されたのはこれが初めてである。
論文 参考訳(メタデータ) (2024-03-29T21:12:25Z) - Stochastic Halpern iteration in normed spaces and applications to reinforcement learning [0.30693357740321775]
基礎となるオラクルが一様有界であれば,本手法は全体のオラクル複雑性が$tildeO(varepsilon-5)$であることを示す。
平均報酬と割引報酬を決定するための新しい同期アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-19T01:07:35Z) - Calculating the expected value function of a two-stage stochastic
optimization program with a quantum algorithm [0.0]
2段階の最適化では、将来の決定の期待されるコストを計算し、現在の最良の決定を知らせる。
本研究では,2段階最適化問題における期待値関数を,確率変数の複雑性から大きく独立して推定する量子アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-23T00:07:34Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - A Newton-CG based barrier-augmented Lagrangian method for general
nonconvex conic optimization [77.8485863487028]
本稿では、2つの異なる対象の一般円錐最適化を最小化する近似二階定常点(SOSP)について検討する。
特に、近似SOSPを見つけるためのNewton-CGベースの拡張共役法を提案する。
論文 参考訳(メタデータ) (2023-01-10T20:43:29Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - A Projection-free Algorithm for Constrained Stochastic Multi-level
Composition Optimization [12.096252285460814]
合成最適化のためのプロジェクションフリー条件付き勾配型アルゴリズムを提案する。
提案アルゴリズムで要求されるオラクルの数と線形最小化オラクルは,それぞれ$mathcalO_T(epsilon-2)$と$mathcalO_T(epsilon-3)$である。
論文 参考訳(メタデータ) (2022-02-09T06:05:38Z) - On Stochastic Moving-Average Estimators for Non-Convex Optimization [105.22760323075008]
本稿では,移動平均(SEMA)問題に基づく広く利用されている推定器のパワーを実証する。
これらすべてのアートな結果に対して、これらのアートな問題に対する結果も提示します。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Stochastic Recursive Variance Reduction for Efficient Smooth Non-Convex
Compositional Optimization [20.410012564838933]
構成最適化は、強化学習における価値関数の評価やポートフォリオ管理など、多くの重要な機械学習タスクで発生する。
本稿では, 一般的なスムーズな非帰納的設定における一般的な構成最適化について検討する。
論文 参考訳(メタデータ) (2019-12-31T18:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。