論文の概要: Constrained and Composite Optimization via Adaptive Sampling Methods
- arxiv url: http://arxiv.org/abs/2012.15411v1
- Date: Thu, 31 Dec 2020 02:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:01:27.591359
- Title: Constrained and Composite Optimization via Adaptive Sampling Methods
- Title(参考訳): 適応サンプリング法による制約付き複合最適化
- Authors: Yuchen Xie, Raghu Bollapragada, Richard Byrd and Jorge Nocedal
- Abstract要約: 本論文の動機は,制約付き最適化問題を解くための適応サンプリング手法を開発することにある。
本論文で提案する手法は、f が凸(必ずしも微分可能ではない)である合成最適化問題 min f(x) + h(x) にも適用できる近位勾配法である。
- 参考スコア(独自算出の注目度): 3.4219044933964944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The motivation for this paper stems from the desire to develop an adaptive
sampling method for solving constrained optimization problems in which the
objective function is stochastic and the constraints are deterministic. The
method proposed in this paper
is a proximal gradient method that can also be applied to the composite
optimization problem min f(x) + h(x), where f is stochastic and h is convex
(but not necessarily differentiable). Adaptive sampling methods employ a
mechanism for gradually improving the quality of the gradient approximation so
as to keep computational cost to a minimum. The mechanism commonly employed in
unconstrained optimization is no longer reliable in the constrained or
composite optimization settings because it is based on pointwise decisions that
cannot correctly predict the quality of the proximal gradient step. The method
proposed in this paper measures the result of a complete step to determine if
the gradient approximation is accurate enough; otherwise a more accurate
gradient is generated and a new step is computed. Convergence results are
established both for strongly convex and general convex f. Numerical
experiments are presented to illustrate the practical behavior of the method.
- Abstract(参考訳): 本論文の動機は,目的関数が確率的かつ制約が決定論的である制約付き最適化問題を解くための適応的サンプリング法を開発することにある。
本稿では,合成最適化問題min f(x) + h(x)に対しても,f が確率的かつ h が凸(必ずしも微分可能ではない)である場合に適用可能な近位勾配法を提案する。
適応サンプリング法は、計算コストを最小限に抑えるため、勾配近似の品質を徐々に改善するメカニズムを用いる。
制約のない最適化において一般的に用いられるメカニズムは、近位勾配ステップの品質を正確に予測できない点的決定に基づくため、制約付きあるいは複合的な最適化設定ではもはや信頼性が低い。
提案手法は, 勾配近似が十分正確かどうかを判定する完全ステップの結果を測定し, それ以外の場合, より正確な勾配を生成し, 新たなステップを計算する。
強凸と一般凸fの両方について収束結果が確立された。
関連論文リスト
- Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - Efficient Gradient Approximation Method for Constrained Bilevel
Optimization [2.0305676256390934]
大規模高次元データを用いたバイレベル最適化が開発されている。
本稿では凸と微分不可能な近似を伴う制約付き二値問題について考察する。
論文 参考訳(メタデータ) (2023-02-03T19:34:56Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Adaptive First-and Zeroth-order Methods for Weakly Convex Stochastic
Optimization Problems [12.010310883787911]
我々は、弱凸(おそらく非滑らかな)最適化問題の重要なクラスを解くための、適応的な段階的な新しい手法の族を解析する。
実験結果から,提案アルゴリズムが0次勾配降下と設計変動を経験的に上回ることを示す。
論文 参考訳(メタデータ) (2020-05-19T07:44:52Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z) - Geometry, Computation, and Optimality in Stochastic Optimization [24.154336772159745]
問題幾何学の計算および統計的結果とオンライン最適化について検討する。
制約集合と勾配幾何学に焦点をあてて、どの次法と適応次法が最適(minimax)であるかという問題族を特徴づける。
論文 参考訳(メタデータ) (2019-09-23T16:14:26Z) - On the Convergence of Adaptive Gradient Methods for Nonconvex Optimization [80.03647903934723]
我々は、勾配収束法を期待する適応勾配法を証明した。
解析では、非理解勾配境界の最適化において、より適応的な勾配法に光を当てた。
論文 参考訳(メタデータ) (2018-08-16T20:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。