論文の概要: A New Random Reshuffling Method for Nonsmooth Nonconvex Finite-sum
Optimization
- arxiv url: http://arxiv.org/abs/2312.01047v1
- Date: Sat, 2 Dec 2023 07:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 19:28:18.256891
- Title: A New Random Reshuffling Method for Nonsmooth Nonconvex Finite-sum
Optimization
- Title(参考訳): 非滑らかな有限和最適化のための新しいランダムリシャッフル法
- Authors: Xiao Li, Andre Milzarek, Junwen Qiu
- Abstract要約: そこで本研究では,正規写像を用いたリシャッフル法(ノルム点収束法)と呼ばれる新しい最適化アルゴリズムを提案する。
本稿では,提案手法を実証する機械学習の問題点について述べる。
- 参考スコア(独自算出の注目度): 7.096368428610449
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose and study a novel stochastic optimization algorithm,
termed the normal map-based proximal random reshuffling (norm-PRR) method, for
nonsmooth nonconvex finite-sum problems. Random reshuffling techniques are
prevalent and widely utilized in large-scale applications, e.g., in the
training of neural networks. While the convergence behavior and advantageous
acceleration effects of random reshuffling methods are fairly well understood
in the smooth setting, much less seems to be known in the nonsmooth case and
only few proximal-type random reshuffling approaches with provable guarantees
exist.
We establish the iteration complexity ${\cal O}(n^{-1/3}T^{-2/3})$ for
norm-PRR, where $n$ is the number of component functions and $T$ counts the
total number of iteration. We also provide novel asymptotic convergence results
for norm-PRR. Specifically, under the Kurdyka-{\L}ojasiewicz (KL) inequality,
we establish strong limit-point convergence, i.e., the iterates generated by
norm-PRR converge to a single stationary point. Moreover, we derive last
iterate convergence rates of the form ${\cal O}(k^{-p})$; here, $p \in [0, 1]$
depends on the KL exponent $\theta \in [0,1)$ and step size dynamics. Finally,
we present preliminary numerical results on machine learning problems that
demonstrate the efficiency of the proposed method.
- Abstract(参考訳): 本研究では,非滑らかな有限サム問題に対して,正規写像に基づく近位ランダムリシャッフル法(norm-PRR)と呼ばれる新しい確率最適化アルゴリズムを提案する。
ランダムなリシャッフル技術は、ニューラルネットワークのトレーニングなど、大規模アプリケーションで広く利用されている。
ランダムリシャッフル法の収束挙動と有利な加速効果は、滑らかな設定ではよく理解されているが、非スムースの場合ではあまり知られておらず、証明可能な保証を持つ近位型ランダムリシャッフルアプローチはほとんど存在しない。
ノルムPRRに対して反復複雑性を${\cal O}(n^{-1/3}T^{-2/3})$とすると、$n$は成分関数の数であり、$T$は反復の総数である。
また,ノルムPRRに対する新しい漸近収束結果も提供する。
具体的には、Kurtyka-{\L}ojasiewicz (KL)の不等式の下では、強い極限点収束、すなわちノルムPRRによって生成されるイテレートが単一の定常点に収束する。
さらに、最後の反復収束率は${\cal o}(k^{-p})$; ここで、$p \in [0, 1]$ は kl exponent $\theta \in [0,1)$ と step size dynamics に依存する。
最後に,提案手法の有効性を示す機械学習問題に対する予備的な数値結果を示す。
関連論文リスト
- Polynomial-Time Solutions for ReLU Network Training: A Complexity
Classification via Max-Cut and Zonotopes [70.52097560486683]
我々は、ReLUネットワークの近似の難しさがマックス・カッツ問題の複雑さを反映しているだけでなく、特定の場合において、それと完全に一致することを証明した。
特に、$epsilonleqsqrt84/83-1approx 0.006$とすると、目的値に関して相対誤差$epsilon$でReLUネットワーク対象の近似グローバルデータセットを見つけることはNPハードであることが示される。
論文 参考訳(メタデータ) (2023-11-18T04:41:07Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Distributed Random Reshuffling Methods with Improved Convergence [8.112170817124444]
本稿では,GT-RR(Gdient Tracking with Random Reshuffling)とED-RR(Exact Diffusion with Random Reshuffling)の2つの分散ランダムリシャッフル手法を提案する。
論文 参考訳(メタデータ) (2023-06-21T06:05:34Z) - Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Randomized Coordinate Subgradient Method for Nonsmooth Composite
Optimization [11.017632675093628]
非滑らかな問題に対処するコーディネート型劣階法は、リプシッツ型仮定の性質のセットのため、比較的過小評価されている。
論文 参考訳(メタデータ) (2022-06-30T02:17:11Z) - Proximal and Federated Random Reshuffling [11.83842808044211]
ランダムリシャッフルのための2つの新しいアルゴリズムを提案する。
ProxRR と FedRR は複合凸有限和最小化問題を解く。
ProxRRは、各イテレーションの近位演算子を評価するアルゴリズムよりも高速です。
論文 参考訳(メタデータ) (2021-02-12T18:59:24Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Random Reshuffling: Simple Analysis with Vast Improvements [9.169947558498535]
ランダムリシャッフル(Random Reshuffling, RR)は、データリシャッフルと共に反復降下ステップを利用する有限サム関数を最小化するアルゴリズムである。
論文 参考訳(メタデータ) (2020-06-10T17:57:21Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。