論文の概要: Denise: Deep Robust Principal Component Analysis for Positive
Semidefinite Matrices
- arxiv url: http://arxiv.org/abs/2004.13612v4
- Date: Tue, 6 Jun 2023 09:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 00:27:39.322065
- Title: Denise: Deep Robust Principal Component Analysis for Positive
Semidefinite Matrices
- Title(参考訳): Denise:正の半定値行列に対する深いロバスト成分分析
- Authors: Calypso Herrera, Florian Krach, Anastasis Kratsios, Pierre Ruyssen,
Josef Teichmann
- Abstract要約: Deniseは、共分散行列の堅牢なPCAのためのディープラーニングベースのアルゴリズムである。
実験により、デニスは分解品質の点で最先端の性能と一致していることが示された。
- 参考スコア(独自算出の注目度): 8.1371986647556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robust PCA of covariance matrices plays an essential role when isolating
key explanatory features. The currently available methods for performing such a
low-rank plus sparse decomposition are matrix specific, meaning, those
algorithms must re-run for every new matrix. Since these algorithms are
computationally expensive, it is preferable to learn and store a function that
nearly instantaneously performs this decomposition when evaluated. Therefore,
we introduce Denise, a deep learning-based algorithm for robust PCA of
covariance matrices, or more generally, of symmetric positive semidefinite
matrices, which learns precisely such a function. Theoretical guarantees for
Denise are provided. These include a novel universal approximation theorem
adapted to our geometric deep learning problem and convergence to an optimal
solution to the learning problem. Our experiments show that Denise matches
state-of-the-art performance in terms of decomposition quality, while being
approximately $2000\times$ faster than the state-of-the-art, principal
component pursuit (PCP), and $200 \times$ faster than the current
speed-optimized method, fast PCP.
- Abstract(参考訳): 共分散行列のロバストPCAは、重要な説明的特徴を分離する際に重要な役割を果たす。
そのような低ランク+スパース分解を実行するための現在利用可能な方法はマトリックス固有であり、つまり、これらのアルゴリズムは新しいマトリックスごとに再実行する必要がある。
これらのアルゴリズムは計算コストが高いため、評価時にほぼ瞬時にこの分解を行う関数を学習して保存することが好ましい。
そこで我々は,共分散行列の頑健なPCA(あるいはより一般的には対称正の半定値行列)の深層学習に基づくアルゴリズムであるDeniseを紹介し,その関数を正確に学習する。
デニスの理論的保証が提供される。
これらは、我々の幾何学的深層学習問題に適応した新しい普遍近似定理と学習問題の最適解への収束を含む。
私たちの実験では、deniseは分解品質の点で最先端のパフォーマンスにマッチすると同時に、最先端のprincipal component pursuit(pcp)よりも約2000\times$、現在の速度最適化手法であるfast pcpよりも200 \times$高速であることが示された。
関連論文リスト
- Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Efficient Convex Algorithms for Universal Kernel Learning [50.877957471649395]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - Randomly pivoted Cholesky: Practical approximation of a kernel matrix
with few entry evaluations [3.0365718230416463]
ランダムにピボットされた部分チョレスキーアルゴリズム(RPCholesky)は、N x N の正準有限(psd)行列の階数-k近似を計算する。
RPCholeskyの単純さ、有効性、堅牢性は、科学計算や機械学習アプリケーションでの使用を強く支持している。
論文 参考訳(メタデータ) (2022-07-13T19:51:24Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Robust CUR Decomposition: Theory and Imaging Applications [9.280330114137778]
本稿では、CUR分解フレームワークにおけるロバストPCAの使用とその応用を検討する。
我々は、ロバストPCAの2つの重要なイメージングアプリケーションを検討する:ビデオフォアグラウンド背景分離と顔モデリング。
論文 参考訳(メタデータ) (2021-01-05T17:58:15Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z) - QR and LQ Decomposition Matrix Backpropagation Algorithms for Square,
Wide, and Deep -- Real or Complex -- Matrices and Their Software
Implementation [0.0]
この記事では、正方形(m = n)、幅(m n)、深さ(m > n)のいずれかの行列のQR分解に対する行列バックプロパゲーションアルゴリズムを、階数$k = min(m, n)$で提示する。
我々は, ピボット(フルランク)QR分解と深部入力行列のLQ分解のための新しい行列バックプロパゲーション結果を得た。
論文 参考訳(メタデータ) (2020-09-19T21:03:37Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z) - Fast Generalized Matrix Regression with Applications in Machine Learning [46.79740387890322]
スケッチ技術を用いてGMR問題を効率的に解く高速一般化行列回帰アルゴリズム(Fast GMR)を提案する。
我々は,Fast GMRアルゴリズムを対称正定値行列近似と単一パス特異値分解に適用する。
論文 参考訳(メタデータ) (2019-12-27T07:03:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。