論文の概要: Sequential Quadratic Optimization for Nonlinear Equality Constrained
Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2007.10525v1
- Date: Mon, 20 Jul 2020 23:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:42:42.778720
- Title: Sequential Quadratic Optimization for Nonlinear Equality Constrained
Stochastic Optimization
- Title(参考訳): 非線形等式制約付き確率最適化のための逐次二次最適化
- Authors: Albert Berahas, Frank E. Curtis, Daniel P. Robinson, Baoyu Zhou
- Abstract要約: この設定では、客観的関数と微分値を明示的に計算することは難しそうだと仮定する。
最先端のライン探索SQPアルゴリズムをモデルとした決定論的設定のためのアルゴリズムを提案する。
数値実験の結果は,提案手法の実用性を示すものである。
- 参考スコア(独自算出の注目度): 10.017195276758454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential quadratic optimization algorithms are proposed for solving smooth
nonlinear optimization problems with equality constraints. The main focus is an
algorithm proposed for the case when the constraint functions are
deterministic, and constraint function and derivative values can be computed
explicitly, but the objective function is stochastic. It is assumed in this
setting that it is intractable to compute objective function and derivative
values explicitly, although one can compute stochastic function and gradient
estimates. As a starting point for this stochastic setting, an algorithm is
proposed for the deterministic setting that is modeled after a state-of-the-art
line-search SQP algorithm, but uses a stepsize selection scheme based on
Lipschitz constants (or adaptively estimated Lipschitz constants) in place of
the line search. This sets the stage for the proposed algorithm for the
stochastic setting, for which it is assumed that line searches would be
intractable. Under reasonable assumptions, convergence (resp.,~convergence in
expectation) from remote starting points is proved for the proposed
deterministic (resp.,~stochastic) algorithm. The results of numerical
experiments demonstrate the practical performance of our proposed techniques.
- Abstract(参考訳): 等式制約のある滑らかな非線形最適化問題を解くために, 逐次2次最適化アルゴリズムを提案する。
主な焦点は、制約関数が決定論的であり、制約関数と微分値が明示的に計算できる場合に提案されるアルゴリズムであるが、目的関数は確率的である。
この設定では、確率関数と勾配推定を計算できるが、客観的関数と微分値を明示的に計算することは困難であると仮定される。
この確率的設定の出発点として、ライン探索の代わりにリプシッツ定数(または適応的に推定されるリプシッツ定数)に基づくステップサイズ選択スキームを用いて、最先端のライン探索SQPアルゴリズムをモデルとした決定論的設定のためのアルゴリズムを提案する。
これにより、線形探索が難解であると仮定した確率的設定のための提案アルゴリズムのステージが設定される。
合理的な仮定の下では、提案する決定論的アルゴリズム (resp.,~stochastic) に対して、リモートスタート点からの収束(期待の収束)が証明される。
数値実験の結果は,提案手法の実用性を示すものである。
関連論文リスト
- Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - Single-Loop Deterministic and Stochastic Interior-Point Algorithms for Nonlinearly Constrained Optimization [16.356481969865175]
客観的に制約された連続最適化問題の解法として,内点アルゴリズムを提案し,解析し,検証した。
アルゴリズムは、いつ段階的な設定を意図し、見積もりが利用可能で、場所勾配で使われ、目的関数値が適用されない場合に使用される。
論文 参考訳(メタデータ) (2024-08-29T00:50:35Z) - A Stochastic-Gradient-based Interior-Point Algorithm for Solving Smooth Bound-Constrained Optimization Problems [12.29270365918848]
提案アルゴリズムは、他のインテリアポイント法からの主観的特異な制約に基づいている。
提案アルゴリズムは,プロジェクション,ステップサイズ,シーケンスシーケンスのバランスを慎重に保ち,数値的および決定論的両方の設定において収束を保証する。
論文 参考訳(メタデータ) (2023-04-28T15:30:43Z) - Deterministic Nonsmooth Nonconvex Optimization [94.01526844386977]
次元自由な次元自由アルゴリズムを得るにはランダム化が必要であることを示す。
我々のアルゴリズムは、ReLUネットワークを最適化する最初の決定論的次元自由アルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-16T13:57:19Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - A Sequential Quadratic Programming Method with High Probability Complexity Bounds for Nonlinear Equality Constrained Stochastic Optimization [2.3814052021083354]
制約関数値と導関数は利用可能であると仮定されるが、対象関数とその関連する導関数のプログラミング近似のみを計算することができる。
1次定常性を近似するためにアルゴリズムの反復複雑性に縛られる高い確率が導出される。
論文 参考訳(メタデータ) (2023-01-01T21:46:50Z) - Inequality Constrained Stochastic Nonlinear Optimization via Active-Set
Sequential Quadratic Programming [17.9230793188835]
客観的・決定論的等式と不等式制約を用いた非線形最適化問題について検討する。
本稿では,有理関数として微分可能な拡張ラグランジアンを用いて,能動型逐次適応型プログラミングアルゴリズムを提案する。
アルゴリズムは、拡張ラグランジアンのパラメータを適応的に選択し、行探索を行い、ステップサイズを決定する。
論文 参考訳(メタデータ) (2021-09-23T17:12:17Z) - Optimal Rates for Random Order Online Optimization [60.011653053877126]
敵が損失関数を選択できるカテットガルバー2020onlineについて検討するが、一様にランダムな順序で提示される。
2020onlineアルゴリズムが最適境界を達成し,安定性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T09:48:46Z) - An Adaptive Stochastic Sequential Quadratic Programming with
Differentiable Exact Augmented Lagrangians [17.9230793188835]
本稿では,客観的・決定論的等式を考慮した非線形最適化プログラムの解法について考察する。
本稿では,微分可能な拡張ラグランジアンをメリット関数として用いた逐次二次計画法(SQP)を提案する。
提案アルゴリズムは,行探索手順と1行探索手順を許容する最初のSQPである。
論文 参考訳(メタデータ) (2021-02-10T08:40:55Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。