論文の概要: Rapid Robust Principal Component Analysis: CUR Accelerated Inexact Low
Rank Estimation
- arxiv url: http://arxiv.org/abs/2010.07422v3
- Date: Sun, 7 Feb 2021 06:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 12:36:07.567996
- Title: Rapid Robust Principal Component Analysis: CUR Accelerated Inexact Low
Rank Estimation
- Title(参考訳): 高速ロバスト主成分分析:CURによる不正確な低ランク推定
- Authors: HanQin Cai, Keaton Hamm, Longxiu Huang, Jiaqi Li, Tao Wang
- Abstract要約: 我々は、Iterated Robust CUR(IRCUR)という新しい非RPCアルゴリズムを提案する。
IRCURは小さなサブマトリクスのみを処理でき、アルゴリズム全体を通して全行列上の高価な計算を避けることができる。
数値実験は、IRCURの合成と実世界の両方のデータセットに対する計算上の優位性を確立する。
- 参考スコア(独自算出の注目度): 8.169365031508885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust principal component analysis (RPCA) is a widely used tool for
dimension reduction. In this work, we propose a novel non-convex algorithm,
coined Iterated Robust CUR (IRCUR), for solving RPCA problems, which
dramatically improves the computational efficiency in comparison with the
existing algorithms. IRCUR achieves this acceleration by employing CUR
decomposition when updating the low rank component, which allows us to obtain
an accurate low rank approximation via only three small submatrices.
Consequently, IRCUR is able to process only the small submatrices and avoid
expensive computing on the full matrix through the entire algorithm. Numerical
experiments establish the computational advantage of IRCUR over the
state-of-art algorithms on both synthetic and real-world datasets.
- Abstract(参考訳): ロバスト主成分分析(RPCA)は次元減少のための広く使われているツールである。
本研究では,既存のアルゴリズムと比較して計算効率を劇的に向上させるrpca問題の解法として,イテレーテッド・ロバスト・カー(ircur)という新しい非凸アルゴリズムを提案する。
ircurは、低ランク成分を更新する際にcur分解を使用することで、この加速を実現し、3つの小さな部分行列のみを通して正確な低ランク近似を得ることができる。
これにより、IRCURは小さなサブマトリクスのみを処理し、アルゴリズム全体を通して全行列上の高価な計算を避けることができる。
数値実験は、合成と実世界の両方のデータセットの最先端アルゴリズムに対するIRCURの計算上の優位性を確立する。
関連論文リスト
- Rapid Grassmannian Averaging with Chebyshev Polynomials [8.394689129416067]
我々は、グラスマン多様体上の点の集合を集中的および分散的設定の両方で効率的に平均化する新しいアルゴリズムを提案する。
提案アルゴリズムであるRapid Grassmannian Averaging (RGrAv) とDecentralized Rapid Grassmannian Averaging (DRGrAv) は,この問題のスペクトル構造を利用して高速に平均を計算することでこの問題を克服する。
我々は,最適性の理論的保証と,我々のアルゴリズムが最小時間で高精度な解を提供することで最先端の手法より優れていることを示す数値実験を提供する。
論文 参考訳(メタデータ) (2024-10-11T16:25:06Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - Deep Unrolling for Nonconvex Robust Principal Component Analysis [75.32013242448151]
我々はロバスト成分分析のためのアルゴリズムを設計する(A)
行列を低主行列とスパース主行列の和に分解する。
論文 参考訳(メタデータ) (2023-07-12T03:48:26Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Riemannian CUR Decompositions for Robust Principal Component Analysis [4.060731229044571]
近年,ロバスト主成分分析 (PCA) が注目されている。
本稿では,頑健なPCA分解アルゴリズムであるRobustian CURを提案する。
かなりの量のアウトレージを許容することができ、より高いアウトレージ耐性を持つが、提案手法よりも計算複雑性の悪いAccelerated Projectionsに匹敵する。
論文 参考訳(メタデータ) (2022-06-17T22:58:09Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - Fast and Robust Iterative Closest Point [32.42799285301607]
イテレーティブ・クローズト・ポイント(ICP)は、2つの点集合間の剛性登録のための基本技術である。
Sparse ICPのような最近の研究は、計算速度を犠牲にしてスパース性最適化によって堅牢性を達成する。
本稿では,古典的な点対点ICPを最大化最小化(MM)アルゴリズムとして扱えることを示す。
論文 参考訳(メタデータ) (2020-07-15T11:32:53Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。