論文の概要: Transformed $\ell_1$ Regularizations for Robust Principal Component Analysis: Toward a Fine-Grained Understanding
- arxiv url: http://arxiv.org/abs/2510.03624v1
- Date: Sat, 04 Oct 2025 02:09:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.161634
- Title: Transformed $\ell_1$ Regularizations for Robust Principal Component Analysis: Toward a Fine-Grained Understanding
- Title(参考訳): ロバストな主成分分析のための変換$\ell_1$正規化:微粒化理解に向けて
- Authors: Kun Zhao, Haoke Zhang, Jiayi Wang, Yifei Lou,
- Abstract要約: 本論文は, 異常な部分観測データから低ランク構造を復元することを目的としている。
従来のRPCAモデルは核ノルムや$ell_$ノルムのようなスパース凸緩和に依存している。
両近似を改善するために, $ell_$TL1 と呼ばれる非正規化法を提案する。
- 参考スコア(独自算出の注目度): 9.500372043252233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust Principal Component Analysis (RPCA) aims to recover a low-rank structure from noisy, partially observed data that is also corrupted by sparse, potentially large-magnitude outliers. Traditional RPCA models rely on convex relaxations, such as nuclear norm and $\ell_1$ norm, to approximate the rank of a matrix and the $\ell_0$ functional (the number of non-zero elements) of another. In this work, we advocate a nonconvex regularization method, referred to as transformed $\ell_1$ (TL1), to improve both approximations. The rationale is that by varying the internal parameter of TL1, its behavior asymptotically approaches either $\ell_0$ or $\ell_1$. Since the rank is equal to the number of non-zero singular values and the nuclear norm is defined as their sum, applying TL1 to the singular values can approximate either the rank or the nuclear norm, depending on its internal parameter. We conduct a fine-grained theoretical analysis of statistical convergence rates, measured in the Frobenius norm, for both the low-rank and sparse components under general sampling schemes. These rates are comparable to those of the classical RPCA model based on the nuclear norm and $\ell_1$ norm. Moreover, we establish constant-order upper bounds on the estimated rank of the low-rank component and the cardinality of the sparse component in the regime where TL1 behaves like $\ell_0$, assuming that the respective matrices are exactly low-rank and exactly sparse. Extensive numerical experiments on synthetic data and real-world applications demonstrate that the proposed approach achieves higher accuracy than the classic convex model, especially under non-uniform sampling schemes.
- Abstract(参考訳): ロバスト主成分分析(RPCA)は、ノイズの多い部分的に観測されたデータから低ランクな構造を復元することを目的としており、これはスパースで潜在的に大局的な外れ値によっても破壊される。
従来のRPCAモデルは核ノルムや$\ell_1$ノルムのような凸緩和に頼り、行列の階数と$\ell_0$関数(非ゼロ要素の数)を近似する。
本研究では、両近似を改善するために、変換された$\ell_1$ (TL1) と呼ばれる非凸正則化法を提唱する。
理論的には、TL1の内部パラメータを変更することで、その振る舞いは漸近的に$\ell_0$または$\ell_1$に近づく。
ランクは非ゼロ特異値の数に等しく、核ノルムはそれらの和として定義されるので、特異値にTL1を適用すると、内部パラメータに応じてランクまたは核ノルムを近似することができる。
我々は、一般的なサンプリングスキームの下で、低ランク成分とスパース成分の両方に対して、フロベニウスノルムで測定された統計的収束率のきめ細かい理論的解析を行う。
これらのレートは、核ノルムと$\ell_1$ノルムに基づく古典的なRPCAモデルに匹敵する。
さらに、TL1 が $\ell_0$ のように振る舞う状態において、各行列がちょうどローランクで正確にスパースであるような状態において、ローランク成分の推定ランクとスパース成分の濃度の定数階上界を確立する。
合成データおよび実世界の応用に関する大規模な数値実験により,提案手法が従来の凸モデルよりも高精度であることを示す。
関連論文リスト
- Preconditioned Gradient Descent for Over-Parameterized Nonconvex Matrix Factorization [19.32160757444549]
非特定行列分解の実例では、真の解体$のランクはしばしば未知であるため、モデルのランク子$は$r>rstar$として特異である。
本稿では,行列センサの非行列因数分解のための安価なサブプロセッサを提案し,非依存の場合においても収束係数を線形に復元する。
我々の数値実験により、PrecGD は他の変種非行列分解の収束を回復する上でも同様にうまく機能することがわかった。
論文 参考訳(メタデータ) (2025-04-13T20:06:49Z) - Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Novel Sparse Regularizer [0.0]
本稿では,最適化時にモデルに適用されるエントロピーの新たな尺度を最小化する正規化器を提案する。
微分可能で、単純で高速で計算し、スケール不変であり、簡単な量の追加メモリを必要とし、容易に並列化できる。
論文 参考訳(メタデータ) (2023-01-18T03:17:36Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - A Stochastic Proximal Method for Nonsmooth Regularized Finite Sum
Optimization [7.014966911550542]
スパースサブ構造を検索するために,非滑らかな正規化を伴うディープニューラルネットワークをトレーニングする問題を考察する。
我々は、収束と最悪のケースの複雑さが勾配のリプシッツ定数の知識や近似なしで確立されるSR2と呼ばれる新しい解法を導出する。
CIFAR-10とCIFAR-100で訓練されたネットワークインスタンスの実験により、SR2はProxGENやProxSGDのような関連する手法よりも常に高い空間性と精度を達成することが示された。
論文 参考訳(メタデータ) (2022-06-14T00:28:44Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Convergence Rates of Stochastic Gradient Descent under Infinite Noise
Variance [14.06947898164194]
ヘビーテールは様々なシナリオで勾配降下 (sgd) で現れる。
SGDの収束保証は、潜在的に無限のばらつきを持つ状態依存性および重尾ノイズ下で提供します。
その結果,SGDは無限に分散した重尾雑音下であっても,地球最適値に収束できることが示された。
論文 参考訳(メタデータ) (2021-02-20T13:45:11Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。