論文の概要: Sharper Rates for Separable Minimax and Finite Sum Optimization via
Primal-Dual Extragradient Methods
- arxiv url: http://arxiv.org/abs/2202.04640v1
- Date: Wed, 9 Feb 2022 18:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 16:32:23.406594
- Title: Sharper Rates for Separable Minimax and Finite Sum Optimization via
Primal-Dual Extragradient Methods
- Title(参考訳): 分離可能なミニマックスのシャーパレートとプリマル2次元外部勾配法による有限サム最適化
- Authors: Yujia Jin, Aaron Sidford, Kevin Tian
- Abstract要約: 分離可能なミニマックス最適化問題 $min_x max_y f(x) - g(y) + h(x, y)$, where $f$ and $g$ have smoothness and strong convexity parameters $(Lx, mux)$, $(Ly, muy)$, and $h$ is convex-concave with a $(Lambdaxx, Lambdaxy, Lambdayymuyright)$。
- 参考スコア(独自算出の注目度): 39.87865197769047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design accelerated algorithms with improved rates for several fundamental
classes of optimization problems. Our algorithms all build upon techniques
related to the analysis of primal-dual extragradient methods via relative
Lipschitzness proposed recently by [CST21].
(1) Separable minimax optimization. We study separable minimax optimization
problems $\min_x \max_y f(x) - g(y) + h(x, y)$, where $f$ and $g$ have
smoothness and strong convexity parameters $(L^x, \mu^x)$, $(L^y, \mu^y)$, and
$h$ is convex-concave with a $(\Lambda^{xx}, \Lambda^{xy},
\Lambda^{yy})$-blockwise operator norm bounded Hessian. We provide an algorithm
with gradient query complexity $\tilde{O}\left(\sqrt{\frac{L^{x}}{\mu^{x}}} +
\sqrt{\frac{L^{y}}{\mu^{y}}} + \frac{\Lambda^{xx}}{\mu^{x}} +
\frac{\Lambda^{xy}}{\sqrt{\mu^{x}\mu^{y}}} +
\frac{\Lambda^{yy}}{\mu^{y}}\right)$. Notably, for convex-concave minimax
problems with bilinear coupling (e.g.\ quadratics), where $\Lambda^{xx} =
\Lambda^{yy} = 0$, our rate matches a lower bound of [ZHZ19].
(2) Finite sum optimization. We study finite sum optimization problems
$\min_x \frac{1}{n}\sum_{i\in[n]} f_i(x)$, where each $f_i$ is $L_i$-smooth and
the overall problem is $\mu$-strongly convex. We provide an algorithm with
gradient query complexity $\tilde{O}\left(n + \sum_{i\in[n]}
\sqrt{\frac{L_i}{n\mu}} \right)$. Notably, when the smoothness bounds
$\{L_i\}_{i\in[n]}$ are non-uniform, our rate improves upon accelerated SVRG
[LMH15, FGKS15] and Katyusha [All17] by up to a $\sqrt{n}$ factor.
(3) Minimax finite sums. We generalize our algorithms for minimax and finite
sum optimization to solve a natural family of minimax finite sum optimization
problems at an accelerated rate, encapsulating both above results up to a
logarithmic factor.
- Abstract(参考訳): 最適化問題の基本クラスを改良した高速化アルゴリズムを設計する。
我々のアルゴリズムは, [cst21] によって最近提唱された相対リプシッツネスによる素数-双次超勾配法の解析手法に基づいている。
1)分離可能なミニマックス最適化。
分離可能な minimax 最適化問題 $\min_x \max_y f について検討する。
(x)-g
(y) + h(x,
ここで、$f$ と $g$ は滑らかで強い凸パラメータ $(l^x, \mu^x)$, $(l^y, \mu^y)$ を持ち、$h$ は $(\lambda^{xx}, \lambda^{xy}, \lambda^{yy})$-blockwise 作用素ノルム有界ヘッセンである。
勾配クエリ複雑性 $\tilde{O}\left(\sqrt {\frac{L^{x}}{\mu^{x}}} + \sqrt {\frac{L^{y}}{\mu^{y}}} + \frac{\Lambda^{xx}}{\mu^{x}} + \frac{\Lambda^{xy}}{\sqrt{\mu^{x}\mu^{y}}} + \frac{\Lambda^{yy}}{\mu^{y}}\right)$ のアルゴリズムを提供する。
特に、二重線型カップリングを伴う凸凸凹ミニマックス問題(例えば、二次数)に対して、$\Lambda^{xx} = \Lambda^{yy} = 0$ は[ZHZ19] の下界と一致する。
2)有限和最適化。
有限和最適化問題 $\min_x \frac{1}{n}\sum_{i\in[n]} f_i について検討する。
(x)$、各$f_i$は$l_i$-smoothであり、全体の問題は$\mu$-strongly convexである。
勾配クエリ複雑性 $\tilde{O}\left(n + \sum_{i\in[n]} \sqrt {\frac{L_i}{n\mu}} \right)$ のアルゴリズムを提供する。
特に、滑らか性境界が$\{L_i\}_{i\in[n]}$が一様でないとき、加速されたSVRG[LMH15, FGKS15]とKatyusha[All17]を最大$\sqrt{n}$因子で改善する。
(3)ミニマックス有限和。
我々は,極小和最適化と有限和最適化のアルゴリズムを一般化し,極小和最適化問題の自然系を高速化速度で解き,両結果を対数係数にカプセル化する。
関連論文リスト
- Dueling Optimization with a Monotone Adversary [35.850072415395395]
凸最適化の一般化である単調逆数を用いたデュエル最適化の問題点について検討する。
目的は、最小値$mathbfx*$の関数$fcolon XをmathbbRdに変換するために、オンラインアルゴリズムを設計することである。
論文 参考訳(メタデータ) (2023-11-18T23:55:59Z) - An Optimal Algorithm for Strongly Convex Min-min Optimization [79.11017157526815]
既存の最適な一階法には$mathcalO(sqrtmaxkappa_x,kappa_y log 1/epsilon)$nabla_x f(x,y)$と$nabla_y f(x,y)$の両方の計算が必要である。
我々は$mathcalO(sqrtkappa_x log 1/epsilon)$nabla_x f(x,
論文 参考訳(メタデータ) (2022-12-29T19:26:12Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - The First Optimal Algorithm for Smooth and
Strongly-Convex-Strongly-Concave Minimax Optimization [88.91190483500932]
本稿では,スムーズで強靭なミニマックス最適化問題を再考する。
既存の最先端メソッドは、下限の$Omegaleft(sqrtkappa_xkappa_ylog3 (kappa_xkappa_y)logfrac1epsilonright)$にマッチしない。
我々は、$mathcalOleft( sqrtkappa_xkappa_ylog)で最初のアルゴリズムを提供することで、この根本的な問題を解決する。
論文 参考訳(メタデータ) (2022-05-11T17:33:07Z) - Lifted Primal-Dual Method for Bilinearly Coupled Smooth Minimax
Optimization [47.27237492375659]
双線型結合されたミニマックス問題:$min_x max_y f(x) + ytop A x - h(y)$, ここでは$f$と$h$はどちらも強凸滑らかな関数である。
Omega(sqrtfracL_xmu_x + frac|A|sqrtmu_x,mu_y) log(frac1vareps) の低い複雑性境界を達成した1次アルゴリズムは知られていない。
論文 参考訳(メタデータ) (2022-01-19T05:56:19Z) - Near Optimal Stochastic Algorithms for Finite-Sum Unbalanced
Convex-Concave Minimax Optimization [41.432757205864796]
本稿では,$min_bf xmax_yf(bfbf y)という形の凸-凸最小値問題の1次アルゴリズムを同時に検討する。
我々の手法は、より一般的な不均衡なミニマックス問題を解くために使用することができ、また、ほぼ最適である。
論文 参考訳(メタデータ) (2021-06-03T11:30:32Z) - DIPPA: An improved Method for Bilinear Saddle Point Problems [18.65143269806133]
本稿では,min_bfx max_bfy g(fracx) + bfxtop bfbftop fracbfa kappa_x kappa_x (kappa_x + kappa_y) kappa_y (kappa_x + kappa_y) kappa_y (kappa_x + kappa_y) kappa_y (kappa_x + kappa_y)について述べる。
論文 参考訳(メタデータ) (2021-03-15T10:55:30Z) - Improved Algorithms for Convex-Concave Minimax Optimization [10.28639483137346]
本稿では、ミニマックス最適化問題$min_x max_y f(x,y)$, $f(x,y)$が$x$, $m_y$-strongly concaveに対して$m_x$-strongly convexが$y$および$(L_x,L_xy,L_y)$-smoothに関して$m_x$-strongly concaveについて検討する。
論文 参考訳(メタデータ) (2020-06-11T12:21:13Z) - Revisiting EXTRA for Smooth Distributed Optimization [70.65867695317633]
改良された$Oleft(left(fracLmu+frac11-sigma_2(W)right)logfrac1epsilon (1-sigma_2(W))right)$。
高速化されたEXTRAの通信複雑性は、$left(logfracLmu (1-sigma_2(W))right)$と$left(logfrac1epsilon (1。
論文 参考訳(メタデータ) (2020-02-24T08:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。