論文の概要: Faster Projection-Free Augmented Lagrangian Methods via Weak Proximal
Oracle
- arxiv url: http://arxiv.org/abs/2210.13968v1
- Date: Tue, 25 Oct 2022 12:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 16:00:42.282384
- Title: Faster Projection-Free Augmented Lagrangian Methods via Weak Proximal
Oracle
- Title(参考訳): 弱近位Oracleによる高速なプロジェクションフリー拡張ラグランジアン法
- Authors: Dan Garber, Tsur Livney, Shoham Sabac
- Abstract要約: 本稿では,アフィン制約を伴う凸複合最適化問題について考察する。
正確なプロジェクション/近距離計算が難解な高次元アプリケーションにより,テキスト投影のないラグランジアン型拡張手法を提案する。
- 参考スコア(独自算出の注目度): 16.290192687098383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers a convex composite optimization problem with affine
constraints, which includes problems that take the form of minimizing a smooth
convex objective function over the intersection of (simple) convex sets, or
regularized with multiple (simple) functions. Motivated by high-dimensional
applications in which exact projection/proximal computations are not tractable,
we propose a \textit{projection-free} augmented Lagrangian-based method, in
which primal updates are carried out using a \textit{weak proximal oracle}
(WPO). In an earlier work, WPO was shown to be more powerful than the standard
\textit{linear minimization oracle} (LMO) that underlies conditional
gradient-based methods (aka Frank-Wolfe methods). Moreover, WPO is
computationally tractable for many high-dimensional problems of interest,
including those motivated by recovery of low-rank matrices and tensors, and
optimization over polytopes which admit efficient LMOs. The main result of this
paper shows that under a certain curvature assumption (which is weaker than
strong convexity), our WPO-based algorithm achieves an ergodic rate of
convergence of $O(1/T)$ for both the objective residual and feasibility gap.
This result, to the best of our knowledge, improves upon the $O(1/\sqrt{T})$
rate for existing LMO-based projection-free methods for this class of problems.
Empirical experiments on a low-rank and sparse covariance matrix estimation
task and the Max Cut semidefinite relaxation demonstrate the superiority of our
method over state-of-the-art LMO-based Lagrangian-based methods.
- Abstract(参考訳): 本稿では, (単純) 凸集合の交叉上で滑らかな凸対象関数を最小化する問題や, 複数の (単純) 関数を正規化する問題を含む, アフィン制約を伴う凸合成最適化問題を考える。
正確なプロジェクション/近位計算が抽出不可能な高次元アプリケーションによって動機付けされ, 原点更新を行うためのラグランジアン法(WPO)を提案する。
初期の研究では、WPOは条件付き勾配法(Frank-Wolfe法)の根底をなす標準の「textit{linear minimization oracle} (LMO)」よりも強力であることが示されている。
さらに、WPOは、低ランク行列とテンソルの回復によるモチベーションや、効率的なLMOを許容するポリトープの最適化など、多くの高次元問題に対して計算的に牽引可能である。
本研究の主な結果は、ある曲率仮定(強い凸性よりも弱い)の下で、我々のWPOベースのアルゴリズムは、目的的残差と実現可能性ギャップの両方に対して、O(1/T)$のエルゴードの収束率を達成することを示す。
この結果、私たちの知る限りでは、このタイプの問題に対する既存のlmoベースのプロジェクションフリーメソッドに対して、$o(1/\sqrt{t})$レートが向上します。
低ランクかつスパースな共分散行列推定タスクとMax Cut半定緩和に関する実証実験は、最先端のLMOベースのラグランジアン法よりも優れていることを示した。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Developing Lagrangian-based Methods for Nonsmooth Nonconvex Optimization [2.7998963147546148]
我々はラグランジュ的手法を開発するためのフレームワークを開発する。
予測制約で制約された問題を解くために,我々のフレームワークを拡張できることが示される。
論文 参考訳(メタデータ) (2024-04-15T03:50:47Z) - Low-Rank Extragradient Methods for Scalable Semidefinite Optimization [0.0]
この問題が低ランクの解を許容する高次元かつ高可算な設定に焦点をあてる。
これらの条件下では、よく知られた過次法が制約付き最適化問題の解に収束することを示す理論的結果がいくつか提示される。
論文 参考訳(メタデータ) (2024-02-14T10:48:00Z) - Constrained Bi-Level Optimization: Proximal Lagrangian Value function
Approach and Hessian-free Algorithm [8.479947546216131]
We developed a Hessian-free gradient-based algorithm-termed proximal Lagrangian Value function-based Hessian-free Bi-level Algorithm (LV-HBA)
LV-HBAは特に機械学習アプリケーションに適している。
論文 参考訳(メタデータ) (2024-01-29T13:50:56Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - A Feasible Level Proximal Point Method for Nonconvex Sparse Constrained
Optimization [25.73397307080647]
本稿では,汎用凸あるいは非汎用機械目標の新しいモデルを提案する。
本稿では,各サブプロブレムの点レベルを徐々に緩和した制約を解くアルゴリズムを提案する。
我々は,新しい数値スケール問題の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-23T05:24:05Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。