論文の概要: Provable Low Rank Plus Sparse Matrix Separation Via Nonconvex
Regularizers
- arxiv url: http://arxiv.org/abs/2109.12713v1
- Date: Sun, 26 Sep 2021 22:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 08:21:23.536518
- Title: Provable Low Rank Plus Sparse Matrix Separation Via Nonconvex
Regularizers
- Title(参考訳): 非凸正則化器による確率的低ランクプラススパースマトリックス分離
- Authors: April Sagan, John E. Mitchell
- Abstract要約: 本稿では,低ランク行列やスパースベクトルをある種の測定値から回収しようとする大問題について考察する。
凸偏差推定器に基づく手法は、ランクや空間の偏りに悩まされているが、非正則化器を用いる。
本稿では,このような問題に適用した近似交互バイアス降下アルゴリズムの新たな解析法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers a large class of problems where we seek to recover a low
rank matrix and/or sparse vector from some set of measurements. While methods
based on convex relaxations suffer from a (possibly large) estimator bias, and
other nonconvex methods require the rank or sparsity to be known a priori, we
use nonconvex regularizers to minimize the rank and $l_0$ norm without the
estimator bias from the convex relaxation. We present a novel analysis of the
alternating proximal gradient descent algorithm applied to such problems, and
bound the error between the iterates and the ground truth sparse and low rank
matrices. The algorithm and error bound can be applied to sparse optimization,
matrix completion, and robust principal component analysis as special cases of
our results.
- Abstract(参考訳): 本稿では,低階行列および/またはスパースベクトルをある種の測定値から回収しようとする問題について考察する。
凸緩和に基づく手法は(おそらく大きすぎる)推定器バイアスに悩まされ、他の非凸法では階数や疎度を事前に知る必要があるが、非凸正規化器を用いて階数を最小化し、凸緩和からの推定器バイアスを伴わない$l_0$ノルムを用いる。
本稿では,このような問題に適用した交代近位勾配降下アルゴリズムの新たな解析を行い,イテレートと基底真理の誤差と低ランク行列との結合について述べる。
このアルゴリズムと誤差境界は、スパース最適化、行列補完、ロバストな主成分分析などに応用できる。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Leave-One-Out Analysis for Nonconvex Robust Matrix Completion with General Thresholding Functions [7.697455644733554]
我々は、ロバスト完備行列(RMC)の問題をランク付けする。
解析には単純だが効率的なアルゴリズムを考える。
最高のサンプリング結果を得るためには、これが最初のランクアウト分析法である。
論文 参考訳(メタデータ) (2024-07-28T09:47:36Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - The Inductive Bias of Flatness Regularization for Deep Matrix
Factorization [58.851514333119255]
この研究は、ディープ線形ネットワークにおけるヘッセン解の最小トレースの帰納バイアスを理解するための第一歩となる。
測定値の標準等尺性(RIP)が1より大きいすべての深さについて、ヘッセンのトレースを最小化することは、対応する終端行列パラメータのシャッテン 1-ノルムを最小化するのとほぼ同値であることを示す。
論文 参考訳(メタデータ) (2023-06-22T23:14:57Z) - A Validation Approach to Over-parameterized Matrix and Image Recovery [29.29430943998287]
複数のランダムな線形測定から低ランク行列を復元する問題を考察する。
提案手法は,より深いネットワークを持つ画像である画像に有効であることを示す。
論文 参考訳(メタデータ) (2022-09-21T22:01:23Z) - Low-Rank Matrix Recovery with Scaled Subgradient Methods: Fast and
Robust Convergence Without the Condition Number [34.0533596121548]
データ科学における多くの問題は、高度に不完全で、時には腐敗した観測から低いランクを推定するものとして扱われる。
1つの一般的なアプローチは行列分解に頼り、低ランク行列因子は滑らかな損失に対して一階法によって最適化される。
論文 参考訳(メタデータ) (2020-10-26T06:21:14Z) - Robust Low-rank Matrix Completion via an Alternating Manifold Proximal
Gradient Continuation Method [47.80060761046752]
ロバスト低ランク行列補完(RMC)は、コンピュータビジョン、信号処理、機械学習アプリケーションのために広く研究されている。
この問題は、部分的に観察された行列を低ランク行列とスパース行列の重ね合わせに分解することを目的とした。
RMCに取り組むために広く用いられるアプローチは、低ランク行列の核ノルム(低ランク性を促進するために)とスパース行列のl1ノルム(空間性を促進するために)を最小化する凸定式化を考えることである。
本稿では、近年のローワークの動機付けについて述べる。
論文 参考訳(メタデータ) (2020-08-18T04:46:22Z) - Accelerating Ill-Conditioned Low-Rank Matrix Estimation via Scaled
Gradient Descent [34.0533596121548]
低ランク行列推定は凸問題を収束させ、信号処理、機械学習、画像科学に多くの応用を見出す。
低ランク行列の個数の観点から,ScaledGDが最良となることを示す。
我々の分析は、低ランク勾配降下に類似した一般損失にも適用できる。
論文 参考訳(メタデータ) (2020-05-18T17:17:16Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。