論文の概要: Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression
- arxiv url: http://arxiv.org/abs/2006.13533v4
- Date: Wed, 20 Oct 2021 12:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:24:58.449902
- Title: Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression
- Title(参考訳): 非凸正規化回帰に対する有理収束ワーキングセットアルゴリズム
- Authors: Alain Rakotomamonjy (DocApp - LITIS), R\'emi Flamary (CMAP), Gilles
Gasso (LITIS), Joseph Salmon (IMAG)
- Abstract要約: 本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Owing to their statistical properties, non-convex sparse regularizers have
attracted much interest for estimating a sparse linear model from high
dimensional data. Given that the solution is sparse, for accelerating
convergence, a working set strategy addresses the optimization problem through
an iterative algorithm by incre-menting the number of variables to optimize
until the identification of the solution support. While those methods have been
well-studied and theoretically supported for convex regularizers, this paper
proposes a working set algorithm for non-convex sparse regularizers with
convergence guarantees. The algorithm, named FireWorks, is based on a
non-convex reformulation of a recent primal-dual approach and leverages on the
geometry of the residuals. Our theoretical guarantees derive from a lower bound
of the objective function decrease between two inner solver iterations and
shows the convergence to a stationary point of the full problem. More
importantly, we also show that convergence is preserved even when the inner
solver is inexact, under sufficient decay of the error across iterations. Our
experimental results demonstrate high computational gain when using our working
set strategy compared to the full problem solver for both block-coordinate
descent or a proximal gradient solver.
- Abstract(参考訳): 統計的性質のため、非凸スパース正規化器は高次元データからスパース線形モデルの推定に多くの関心を集めている。
解がスパースであることから、収束を加速するために、作業セット戦略は、解支援の特定まで最適化する変数の数をインクリメントすることにより、反復アルゴリズムを通じて最適化問題に対処する。
これらの手法は, 凸正規化器に対してよく研究され, 理論的に支持されているが, 収束保証付き非凸スパース正規化器のためのワーキングセットアルゴリズムを提案する。
FireWorksという名前のこのアルゴリズムは、最近の原始双対アプローチの非凸的再構成に基づいており、残基の幾何を利用する。
我々の理論的な保証は、2つの内包ソルバの反復の間の目的関数の低下の下限から導き出され、全問題の定常点への収束を示す。
さらに重要なことは、内部解法が不正確な場合でも収束が保存されることを示し、繰り返しの誤差が十分に減衰することである。
実験の結果,ブロック座標下降と近位勾配下降の両問題解法と比較して,作業セット戦略を用いた場合の計算精度は高いことがわかった。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Strictly Low Rank Constraint Optimization -- An Asymptotically
$\mathcal{O}(\frac{1}{t^2})$ Method [5.770309971945476]
最適解における空間性を促進するために,テキスト規則化を用いた非テキスト・非滑らかな問題のクラスを提案する。
我々のアルゴリズムは、滑らかな凸問題に対する一階法に対するネステロフの最適収束と全く同じ$Ofrac(t2)$の特異収束を達成することができることを示す。
論文 参考訳(メタデータ) (2023-07-04T16:55:41Z) - Cyclic Block Coordinate Descent With Variance Reduction for Composite
Nonconvex Optimization [26.218670461973705]
非漸近勾配ノルム保証を協調する問題の解法を提案する。
本研究は,ニューラルネットの深部学習における循環還元方式の有効性を実証するものである。
論文 参考訳(メタデータ) (2022-12-09T19:17:39Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Accelerated Algorithms for Convex and Non-Convex Optimization on
Manifolds [9.632674803757475]
距離における凸問題と非最適化問題の解法を提案する。
提案アルゴリズムは,目的関数における複雑性のレベルに適応する。
論文 参考訳(メタデータ) (2020-10-18T02:48:22Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Explicit Regularization of Stochastic Gradient Methods through Duality [9.131027490864938]
ランダム化された双対座標の上昇に基づくランダム化されたDykstraスタイルのアルゴリズムを提案する。
座標降下を高速化するために、補間系における既存の勾配法よりも収束特性がよい新しいアルゴリズムを得る。
論文 参考訳(メタデータ) (2020-03-30T20:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。