論文の概要: Single-Loop Switching Subgradient Methods for Non-Smooth Weakly Convex
Optimization with Non-Smooth Convex Constraints
- arxiv url: http://arxiv.org/abs/2301.13314v1
- Date: Mon, 30 Jan 2023 22:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:17:18.585640
- Title: Single-Loop Switching Subgradient Methods for Non-Smooth Weakly Convex
Optimization with Non-Smooth Convex Constraints
- Title(参考訳): 非平滑凸制約付き非平滑弱凸最適化のための単ループ切換次法
- Authors: Yankun Huang, Qihang Lin
- Abstract要約: 対象関数が弱凸で制約関数が凸である一般の非勾配制約最適化問題を考える。
ほぼ定常な点-点非滑らかな制約ループを求める際の複雑性を証明した。
- 参考スコア(独自算出の注目度): 13.759633873236906
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we consider a general non-convex constrained optimization
problem, where the objective function is weakly convex and the constraint
function is convex while they can both be non-smooth. This class of problems
arises from many applications in machine learning such as fairness-aware
supervised learning. To solve this problem, we consider the classical switching
subgradient method by Polyak (1965), which is an intuitive and easily
implementable first-order method. Before this work, its iteration complexity
was only known for convex optimization. We prove its oracle complexity for
finding a nearly stationary point when the objective function is non-convex.
The analysis is derived separately when the constraint function is
deterministic and stochastic. Compared to existing methods, especially the
double-loop methods, the switching gradient method can be applied to non-smooth
problems and only has a single loop, which saves the effort on tuning the
number of inner iterations.
- Abstract(参考訳): 本稿では,対象関数が弱凸であり,制約関数が凸であり,どちらも非滑らかである一般非凸制約最適化問題を考える。
このタイプの問題は、公正に意識した教師あり学習のような機械学習の多くの応用から生じる。
この問題を解決するために,polyak (1965) による古典的スイッチングサブグレードエント法を,直感的かつ容易に実装可能な一階法として検討する。
この作業以前は、イテレーションの複雑さは凸最適化でのみ知られていた。
目的関数が凸でないとき, ほぼ定常点を求めるためのオラクルの複雑さを証明した。
解析は、制約関数が決定論的かつ確率的であるときに別々に導出される。
既存の方法、特にダブルループ法と比較して、スムースでない問題に対してスイッチング勾配法を適用することができ、単一のループしか持たず、内部イテレーションの数をチューニングする手間を省くことができる。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Efficient First-order Methods for Convex Optimization with Strongly
Convex Function Constraints [3.667453772837954]
強い凸関数制約を受ける凸関数を最小化する方法を示す。
有限個の結果に独立な意味を持つような空間パターンを同定する。
論文 参考訳(メタデータ) (2022-12-21T16:04:53Z) - A conditional gradient homotopy method with applications to Semidefinite
Programming [1.6369790794838281]
ホモトピーに基づく条件勾配法による凸最適化問題の解法。
我々の理論的複雑さは、最先端のSDPに直面すると競合し、安価なプロジェクションフリーの決定的な利点がある。
論文 参考訳(メタデータ) (2022-07-07T05:48:27Z) - A Constrained Optimization Approach to Bilevel Optimization with
Multiple Inner Minima [49.320758794766185]
そこで本研究では,両レベル問題を等価な制約付き最適化に変換する手法を提案する。
このようなアプローチには、(a)多重内極小問題への対処、(b)ジャコビアン計算のない完全一階効率など、いくつかの利点がある。
論文 参考訳(メタデータ) (2022-03-01T18:20:01Z) - Efficient Algorithms for High-Dimensional Convex Subspace Optimization
via Strict Complementarity [19.24470467199451]
目的が$realsn$, $k$の部分空間を見つけることにある最適化問題を考慮し、凸の滑らかな損失を最小限に抑える。
この問題は高次元のレジームでは高いが、大域的最適解を見つけることは困難である。
本稿では自然について述べる。
収束する最適な次元緩和を 決定するのです
グローバルは単純です
論文 参考訳(メタデータ) (2022-02-08T17:36:43Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Gradient-Free Methods for Saddle-Point Problem [125.99533416395765]
我々はGasnikov et al., 2017のアプローチを一般化し、不正確な勾配のないオラクルで(確率的な)凸最適化問題を解けるようにした。
我々のアプローチは、$fracnlog n$ の要求するオラクル呼び出しの回数を削減します。
論文の後半では、そのような仮定ができない場合を分析し、この問題を解決する方法の近代化方法に関する一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-12T16:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。