論文の概要: Stochastic Recursive Variance Reduction for Efficient Smooth Non-Convex
Compositional Optimization
- arxiv url: http://arxiv.org/abs/1912.13515v2
- Date: Sat, 25 Jan 2020 10:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:33:16.553201
- Title: Stochastic Recursive Variance Reduction for Efficient Smooth Non-Convex
Compositional Optimization
- Title(参考訳): 効率的な平滑な非凸構成最適化のための確率的再帰変数削減
- Authors: Huizhuo Yuan, Xiangru Lian, Ji Liu
- Abstract要約: 構成最適化は、強化学習における価値関数の評価やポートフォリオ管理など、多くの重要な機械学習タスクで発生する。
本稿では, 一般的なスムーズな非帰納的設定における一般的な構成最適化について検討する。
- 参考スコア(独自算出の注目度): 20.410012564838933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic compositional optimization arises in many important machine
learning tasks such as value function evaluation in reinforcement learning and
portfolio management. The objective function is the composition of two
expectations of stochastic functions, and is more challenging to optimize than
vanilla stochastic optimization problems. In this paper, we investigate the
stochastic compositional optimization in the general smooth non-convex setting.
We employ a recently developed idea of \textit{Stochastic Recursive Gradient
Descent} to design a novel algorithm named SARAH-Compositional, and prove a
sharp Incremental First-order Oracle (IFO) complexity upper bound for
stochastic compositional optimization: $\mathcal{O}((n+m)^{1/2}
\varepsilon^{-2})$ in the finite-sum case and $\mathcal{O}(\varepsilon^{-3})$
in the online case. Such a complexity is known to be the best one among IFO
complexity results for non-convex stochastic compositional optimization, and is
believed to be optimal. Our experiments validate the theoretical performance of
our algorithm.
- Abstract(参考訳): 確率的構成最適化は、強化学習やポートフォリオ管理における価値関数評価など、多くの重要な機械学習タスクで発生する。
目的関数は、確率関数の2つの期待の組み合わせであり、バニラ確率最適化問題よりも最適化がより困難である。
本稿では,一般平滑な非凸設定における確率的構成最適化について検討する。
最近開発された \textit{stochastic recursivegradient descent} というアイデアを用いて、sarah-compositional という新しいアルゴリズムを設計し、確率的構成最適化のための鋭いインクリメンタルな一階oracle (ifo) 複雑性の上限を証明した:$\mathcal{o}((n+m)^{1/2} \varepsilon^{-2})$ 有限和の場合とオンラインの場合$\mathcal{o}(\varepsilon^{-3})$ である。
このような複雑性は、非凸確率的構成最適化のifo複雑性結果の中で最良であることが知られており、最適であると考えられている。
我々の実験はアルゴリズムの理論的性能を検証する。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - SPABA: A Single-Loop and Probabilistic Stochastic Bilevel Algorithm Achieving Optimal Sample Complexity [5.046146134689904]
SPABAを実装する際には,双レベル最適化と単レベル最適化の間に複雑性解析のギャップがないことが示されている。
本稿では,複雑性解析の状況を改善するために,他の2ループあるいはネストした2レベルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:36:03Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Riemannian Stochastic Gradient Method for Nested Composition Optimization [0.0]
この研究は、各函数が期待を含むリーマン多様体上のネスト形式の函数の構成の最適化を考える。
このような問題は、強化学習における政策評価やメタラーニングにおけるモデルカスタマイズといった応用において人気が高まっている。
論文 参考訳(メタデータ) (2022-07-19T15:58:27Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Optimal Algorithms for Convex Nested Stochastic Composite Optimization [13.200502573462712]
凸ネスト複合最適化 (NSCO) は、強化学習およびリスク-逆最適化におけるその応用に多大な注目を集めている。
現在の NSCO アルゴリズムは、ネスト構造を持たない単純な合成最適化問題よりも、桁違いに、オラクルの複雑さが悪化している。
我々は、滑らかで構造化された非滑らかで一般の非滑らかな層関数からなる任意の構成から構成した凸 NSCO 問題に対する順序最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-11-19T19:22:58Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Solving Stochastic Compositional Optimization is Nearly as Easy as
Solving Stochastic Optimization [47.93365664380274]
本稿では,新たに修正された構成勾配法(SCSC)を提案する。
SCSCは単一ループで単一時間スケールで動作し、固定バッチサイズを使用し、非合成最適化のための勾配降下法(SGD)と同じ速度で収束することを保証している。
論文 参考訳(メタデータ) (2020-08-25T06:54:00Z) - A Two-Timescale Framework for Bilevel Optimization: Complexity Analysis
and Application to Actor-Critic [142.1492359556374]
双レベル最適化は、2レベル構造を示す問題のクラスである。
このような二段階問題に対処するための2段階近似(TTSA)アルゴリズムを提案する。
本稿では,TTSAフレームワークの特殊な事例として,2段階の自然なアクター・クリティカルポリシー最適化アルゴリズムが有用であることを示す。
論文 参考訳(メタデータ) (2020-07-10T05:20:02Z) - Stochastic Gauss-Newton Algorithms for Nonconvex Compositional
Optimization [26.313415590777858]
我々は,非構成最適化問題のクラスを解くための2つの新しいガウスニュートンアルゴリズムを開発した。
標準的な仮定では、期待と有限サムの設定の両方を考慮する。
論文 参考訳(メタデータ) (2020-02-17T22:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。