論文の概要: Finding Second-Order Stationary Point for Nonconvex-Strongly-Concave
Minimax Problem
- arxiv url: http://arxiv.org/abs/2110.04814v1
- Date: Sun, 10 Oct 2021 14:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 15:53:38.089476
- Title: Finding Second-Order Stationary Point for Nonconvex-Strongly-Concave
Minimax Problem
- Title(参考訳): 非凸強凸ミニマックス問題に対する2次定常点の探索
- Authors: Luo Luo, Cheng Chen
- Abstract要約: 本稿では,ミニマックス問題の2階定常点を求める非同相的挙動について考察する。
高次元問題に対して、降下とチェビシェフ展開による勾配の立方体部分確率を解く2階オラクルのコスト対費用について提案する。
- 参考スコア(独自算出の注目度): 16.689304539024036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the smooth minimax optimization problem of the form $\min_{\bf
x}\max_{\bf y} f({\bf x},{\bf y})$, where the objective function is
strongly-concave in ${\bf y}$ but possibly nonconvex in ${\bf x}$. This problem
includes a lot of applications in machine learning such as regularized GAN,
reinforcement learning and adversarial training. Most of existing theory
related to gradient descent accent focus on establishing the convergence result
for achieving the first-order stationary point of $f({\bf x},{\bf y})$ or
primal function $P({\bf x})\triangleq \max_{\bf y} f({\bf x},{\bf y})$. In this
paper, we design a new optimization method via cubic Newton iterations, which
could find an ${\mathcal
O}\left(\varepsilon,\kappa^{1.5}\sqrt{\rho\varepsilon}\right)$-second-order
stationary point of $P({\bf x})$ with ${\mathcal
O}\left(\kappa^{1.5}\sqrt{\rho}\varepsilon^{-1.5}\right)$ second-order oracle
calls and $\tilde{\mathcal
O}\left(\kappa^{2}\sqrt{\rho}\varepsilon^{-1.5}\right)$ first-order oracle
calls, where $\kappa$ is the condition number and $\rho$ is the Hessian
smoothness coefficient of $f({\bf x},{\bf y})$. For high-dimensional problems,
we propose an variant algorithm to avoid expensive cost form second-order
oracle, which solves the cubic sub-problem inexactly via gradient descent and
matrix Chebyshev expansion. This strategy still obtains desired approximate
second-order stationary point with high probability but only requires
$\tilde{\mathcal O}\left(\kappa^{1.5}\ell\varepsilon^{-2}\right)$
Hessian-vector oracle and $\tilde{\mathcal
O}\left(\kappa^{2}\sqrt{\rho}\varepsilon^{-1.5}\right)$ first-order oracle
calls. To the best of our knowledge, this is the first work considers
non-asymptotic convergence behavior of finding second-order stationary point
for minimax problem without convex-concave assumption.
- Abstract(参考訳): 対象関数は${\bf y}$ で強凸であるが、${\bf x}$ では非凸である可能性があるというような、$\min_{\bf x}\max_{\bf y} f({\bf x},{\bf y}) 形式の滑らかなミニマックス最適化問題を研究する。
この問題には、正規化GANや強化学習、対人訓練など、機械学習の多くの応用が含まれている。
勾配降下アクセントに関する既存の理論のほとんどは、一階定常点 $f({\bf x},{\bf y})$ または主関数 $p({\bf x})\triangleq \max_{\bf y} f({\bf x},{\bf y})$ を達成するための収束結果を確立することに焦点を当てている。
In this paper, we design a new optimization method via cubic Newton iterations, which could find an ${\mathcal O}\left(\varepsilon,\kappa^{1.5}\sqrt{\rho\varepsilon}\right)$-second-order stationary point of $P({\bf x})$ with ${\mathcal O}\left(\kappa^{1.5}\sqrt{\rho}\varepsilon^{-1.5}\right)$ second-order oracle calls and $\tilde{\mathcal O}\left(\kappa^{2}\sqrt{\rho}\varepsilon^{-1.5}\right)$ first-order oracle calls, where $\kappa$ is the condition number and $\rho$ is the Hessian smoothness coefficient of $f({\bf x},{\bf y})$.
高次元問題に対して,我々は,勾配降下と行列チェビシェフ展開によって不必要に立方体部分問題を解く,費用のかかる二階オラクルを回避するための変種アルゴリズムを提案する。
この戦略は、高い確率で所望の2階の静止点を得るが、$\tilde{\mathcal o}\left(\kappa^{1.5}\ell\varepsilon^{-2}\right)$ hessian-vector oracleと$\tilde{\mathcal o}\left(\kappa^{2}\sqrt{\rho}\varepsilon^{-1.5}\right)$ first-order oracleコールのみを必要とする。
我々の知る限りでは、凸凹仮定を伴わないミニマックス問題の2階定常点を求める非漸近収束挙動を考える最初の研究である。
関連論文リスト
- Complexity of Minimizing Projected-Gradient-Dominated Functions with Stochastic First-order Oracles [38.45952947660789]
本稿では,$(alpha,tau,mathcal)$-projected-dominanceプロパティの下で関数を最小化する一階法の性能限界について検討する。
論文 参考訳(メタデータ) (2024-08-03T18:34:23Z) - Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - Nearly Optimal Regret for Decentralized Online Convex Optimization [53.433398074919]
分散オンライン凸最適化(D-OCO)は,局所計算と通信のみを用いて,グローバルな損失関数の列を最小化することを目的としている。
我々は凸関数と強い凸関数の残差をそれぞれ低減できる新しいD-OCOアルゴリズムを開発した。
我々のアルゴリズムは、$T$、$n$、$rho$の点でほぼ最適です。
論文 参考訳(メタデータ) (2024-02-14T13:44:16Z) - Faster Stochastic Algorithms for Minimax Optimization under
Polyak--{\L}ojasiewicz Conditions [12.459354707528819]
我々は、$min_x max_y f(x,y)triqangle frac1n sum_i=1n f_i(x,y)$という形の有限サム問題を解くためのSPIDER-GDAを提案する。
SPIDER-GDA は $mathcal Oleft((n + sqrtn,kappa_xkappa_y2)log (1/epsilon) の中で $epsilon$-optimal Solution を見つけることができる。
論文 参考訳(メタデータ) (2023-07-29T02:26:31Z) - An Optimal Algorithm for Strongly Convex Min-min Optimization [79.11017157526815]
既存の最適な一階法には$mathcalO(sqrtmaxkappa_x,kappa_y log 1/epsilon)$nabla_x f(x,y)$と$nabla_y f(x,y)$の両方の計算が必要である。
我々は$mathcalO(sqrtkappa_x log 1/epsilon)$nabla_x f(x,
論文 参考訳(メタデータ) (2022-12-29T19:26:12Z) - The First Optimal Algorithm for Smooth and
Strongly-Convex-Strongly-Concave Minimax Optimization [88.91190483500932]
本稿では,スムーズで強靭なミニマックス最適化問題を再考する。
既存の最先端メソッドは、下限の$Omegaleft(sqrtkappa_xkappa_ylog3 (kappa_xkappa_y)logfrac1epsilonright)$にマッチしない。
我々は、$mathcalOleft( sqrtkappa_xkappa_ylog)で最初のアルゴリズムを提供することで、この根本的な問題を解決する。
論文 参考訳(メタデータ) (2022-05-11T17:33:07Z) - Decentralized Stochastic Variance Reduced Extragradient Method [25.21457349137344]
本稿では,$min_xmax_y fx,y triqfrac1msumi=1m f_i triqfrac1msumi=1m f_i triqfrac1msumi=1m f_i triqfrac1msumi=1m f_i triqfrac1msumiの分散凸-凹極小最適化問題を考察する。
論文 参考訳(メタデータ) (2022-02-01T16:06:20Z) - Near Optimal Stochastic Algorithms for Finite-Sum Unbalanced
Convex-Concave Minimax Optimization [41.432757205864796]
本稿では,$min_bf xmax_yf(bfbf y)という形の凸-凸最小値問題の1次アルゴリズムを同時に検討する。
我々の手法は、より一般的な不均衡なミニマックス問題を解くために使用することができ、また、ほぼ最適である。
論文 参考訳(メタデータ) (2021-06-03T11:30:32Z) - DIPPA: An improved Method for Bilinear Saddle Point Problems [18.65143269806133]
本稿では,min_bfx max_bfy g(fracx) + bfxtop bfbftop fracbfa kappa_x kappa_x (kappa_x + kappa_y) kappa_y (kappa_x + kappa_y) kappa_y (kappa_x + kappa_y) kappa_y (kappa_x + kappa_y)について述べる。
論文 参考訳(メタデータ) (2021-03-15T10:55:30Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Near-Optimal Algorithms for Minimax Optimization [115.21519161773287]
本論文では,まず,対数因子の設計に適合した $tildeO(sqrtkappa_mathbf xkappa_mathbf)$ を提示する。
また、これらの設定における既存のメソッドを、複雑さの観点からマッチングまたは上回るアルゴリズムも提示する。
論文 参考訳(メタデータ) (2020-02-05T16:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。