論文の概要: Solving bilevel optimization via sequential minimax optimization
- arxiv url: http://arxiv.org/abs/2511.07398v1
- Date: Mon, 10 Nov 2025 18:51:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.423398
- Title: Solving bilevel optimization via sequential minimax optimization
- Title(参考訳): 逐次ミニマックス最適化による二段階最適化の解法
- Authors: Zhaosong Lu, Sanyou Mei,
- Abstract要約: 本研究では,非滑らかな凸部となるような制約付き二段階最適化問題について検討する。
SMO法は低レベル目的関数の複雑さを改善する。
予備結果は、最近開発された1次ペナルティ性能と比較される。
- 参考スコア(独自算出の注目度): 2.735801286587348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a sequential minimax optimization (SMO) method for solving a class of constrained bilevel optimization problems in which the lower-level part is a possibly nonsmooth convex optimization problem, while the upper-level part is a possibly nonconvex optimization problem. Specifically, SMO applies a first-order method to solve a sequence of minimax subproblems, which are obtained by employing a hybrid of modified augmented Lagrangian and penalty schemes on the bilevel optimization problems. Under suitable assumptions, we establish an operation complexity of $O(\varepsilon^{-7}\log\varepsilon^{-1})$ and $O(\varepsilon^{-6}\log\varepsilon^{-1})$, measured in terms of fundamental operations, for SMO in finding an $\varepsilon$-KKT solution of the bilevel optimization problems with merely convex and strongly convex lower-level objective functions, respectively. The latter result improves the previous best-known operation complexity by a factor of $\varepsilon^{-1}$. Preliminary numerical results demonstrate significantly superior computational performance compared to the recently developed first-order penalty method.
- Abstract(参考訳): 本稿では,下層部が非滑らかな凸最適化問題であり,上層部が非凸最適化問題であるような制約付き二段階最適化問題のクラスを解決するための逐次ミニマックス最適化(SMO)手法を提案する。
具体的には、SMOは、二レベル最適化問題に対して、修正されたラグランジアンとペナルティスキームのハイブリッドを用いて得られるミニマックスサブプロブレムの列を解くために、一階法を適用する。
適切な仮定の下では、SMO の基本演算の観点から測った $O(\varepsilon^{-7}\log\varepsilon^{-1})$ と $O(\varepsilon^{-6}\log\varepsilon^{-1})$ の演算複雑性を確立する。
後者の結果は、以前のよく知られた演算複雑性を$\varepsilon^{-1}$の係数で改善する。
その結果,最近開発された1次ペナルティ法に比べて計算性能が大幅に向上した。
関連論文リスト
- An Accelerated Gradient Method for Convex Smooth Simple Bilevel Optimization [16.709026203727007]
下層問題の解集合を局所的に近似する新しい双レベル最適化法を提案する。
我々は,提案手法の性能を,最適度と不実現可能性の誤差の観点から測定する。
論文 参考訳(メタデータ) (2024-02-12T22:34:53Z) - First-order penalty methods for bilevel optimization [1.2691047660244337]
制約のない二段階最適化問題に対して、$varepsilon$ complexity Solutionのクラスを示す。
また,制約のない二段階問題に対して,$epsilon$KKTの解を求める一次ペナルティ法を提案する。
論文 参考訳(メタデータ) (2023-01-04T17:29:04Z) - Explicit Second-Order Min-Max Optimization: Practical Algorithms and Complexity Analysis [71.05708939639537]
本研究では,非制約問題に対するグローバルなサドル点を求めるために,不正確なNewton型手法をいくつか提案し,解析する。
提案手法は,Sur分解の必要回数の$O(log(1/eps)$因子をシェービングすることで,既存のライン検索に基づくmin-max最適化を改善する。
論文 参考訳(メタデータ) (2022-10-23T21:24:37Z) - A Conditional Gradient-based Method for Simple Bilevel Optimization with
Convex Lower-level Problem [18.15207779559351]
そこで本稿では, 切削平面による下層問題の解集合を局所的に近似する二段階最適化手法を提案する。
本手法は,二段階問題のクラスについて,最もよく知られた仮定を導出する。
論文 参考訳(メタデータ) (2022-06-17T16:12:47Z) - Efficiently Escaping Saddle Points in Bilevel Optimization [48.925688192913]
バイレベル最適化は、機械学習における問題の1つだ。
双レベル最適化の最近の進歩は、最初の基本的非適応的多段階解析に収束する。
論文 参考訳(メタデータ) (2022-02-08T07:10:06Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。