論文の概要: Linear Convergence of Reshuffling Kaczmarz Methods With Sparse
Constraints
- arxiv url: http://arxiv.org/abs/2304.10123v1
- Date: Thu, 20 Apr 2023 07:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 14:20:54.387403
- Title: Linear Convergence of Reshuffling Kaczmarz Methods With Sparse
Constraints
- Title(参考訳): スパース制約によるカツマーツ法の再帰の線形収束
- Authors: Halyun Jeong, Deanna Needell
- Abstract要約: カッツマルツ行列(英語版)(KZ)とその変種は、部分線型方程式系を解く際の単純さと効率性のために広く研究されている。
KHT に対する最初の理論的収束保証は、空間的制約のある系の解に線形に収束することを示すことである。
- 参考スコア(独自算出の注目度): 7.936519714074615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Kaczmarz method (KZ) and its variants, which are types of stochastic
gradient descent (SGD) methods, have been extensively studied due to their
simplicity and efficiency in solving linear equation systems. The iterative
thresholding (IHT) method has gained popularity in various research fields,
including compressed sensing or sparse linear regression, machine learning with
additional structure, and optimization with nonconvex constraints. Recently, a
hybrid method called Kaczmarz-based IHT (KZIHT) has been proposed, combining
the benefits of both approaches, but its theoretical guarantees are missing. In
this paper, we provide the first theoretical convergence guarantees for KZIHT
by showing that it converges linearly to the solution of a system with sparsity
constraints up to optimal statistical bias when the reshuffling data sampling
scheme is used. We also propose the Kaczmarz with periodic thresholding (KZPT)
method, which generalizes KZIHT by applying the thresholding operation for
every certain number of KZ iterations and by employing two different types of
step sizes. We establish a linear convergence guarantee for KZPT for randomly
subsampled bounded orthonormal systems (BOS) and mean-zero isotropic
sub-Gaussian random matrices, which are most commonly used models in compressed
sensing, dimension reduction, matrix sketching, and many inverse problems in
neural networks. Our analysis shows that KZPT with an optimal thresholding
period outperforms KZIHT. To support our theory, we include several numerical
experiments.
- Abstract(参考訳): 確率勾配降下法(sgd法)の一種であるkaczmarz法(kz)とその変種は、その単純さと線形方程式系を解くための効率性のために広く研究されてきた。
反復しきい値法 (IHT) は, 圧縮センシングや疎線形回帰, 付加構造を持つ機械学習, 非凸制約を伴う最適化など, 様々な研究分野に普及している。
近年,Kaczmarz-based IHT (KZIHT) と呼ばれるハイブリッド手法が提案されている。
本稿では,kziht に対する最初の理論的収束保証を,再分離データサンプリングスキームを用いた場合の最適統計バイアスまで,スパーシティ制約のある系の解に線形収束することを示す。
また, 周期的閾値付け(KZPT)手法を提案し, KZIHTを一定回数のKZ繰り返しに対してしきい値演算を適用し, 2種類のステップサイズを用いて一般化する。
我々は、ランダムにサブサンプリングされた有界正則系(BOS)と平均ゼロ等方的準ガウス確率行列に対するKZPTに対する線形収束保証を確立し、ニューラルネットワークにおける圧縮センシング、次元縮小、行列スケッチ、および多くの逆問題において最もよく用いられるモデルである。
分析の結果,最適閾値のKZPTはKZIHTより優れていた。
この理論を支持するために、いくつかの数値実験を含む。
関連論文リスト
- PROMISE: Preconditioned Stochastic Optimization Methods by Incorporating Scalable Curvature Estimates [17.777466668123886]
PROMISE ($textbfPr$econditioned $textbfO$ptimization $textbfM$ethods by $textbfI$ncorporating $textbfS$calable Curvature $textbfE$stimates)はスケッチベースの事前条件勾配アルゴリズムである。
PROMISEには、SVRG、SAGA、およびKatyushaのプレコンディション版が含まれている。
論文 参考訳(メタデータ) (2023-09-05T07:49:10Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Early stopping and polynomial smoothing in regression with reproducing
kernels [2.132096006921048]
再生カーネルヒルベルト空間(RKHS)における反復学習アルゴリズムの早期停止問題について検討する。
本稿では,いわゆる最小不一致原理に基づく検証セットを使わずに早期停止を行うデータ駆動型ルールを提案する。
提案したルールは、異なるタイプのカーネル空間に対して、ミニマックス最適であることが証明されている。
論文 参考訳(メタデータ) (2020-07-14T05:27:18Z) - To Each Optimizer a Norm, To Each Norm its Generalization [31.682969645989512]
過度なパラメータ化と過度なパラメータ化の条件下でのトレーニングデータを補間する線形モデルに対する最適化手法の暗黙的な正規化について検討する。
我々は、標準最大値 l2-margin への収束解析は任意であり、データによって誘導されるノルムの最小化がより良い一般化をもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-11T21:07:38Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Stochastic gradient algorithms from ODE splitting perspective [0.0]
我々は、ODEの近似解の分割スキームに遡る最適化に関する異なる見解を示す。
そこで本研究では, ODE の勾配一階分割方式と降下アプローチの関連性について述べる。
我々は、機械学習アプリケーションにインスパイアされた分割の特殊なケースを考察し、それに対するグローバルスプリッティングエラーに新たな上限を導出する。
論文 参考訳(メタデータ) (2020-04-19T22:45:32Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。