論文の概要: Denise: Deep Robust Principal Component Analysis for Positive
Semidefinite Matrices
- arxiv url: http://arxiv.org/abs/2004.13612v3
- Date: Mon, 17 May 2021 13:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:43:21.029773
- Title: Denise: Deep Robust Principal Component Analysis for Positive
Semidefinite Matrices
- Title(参考訳): Denise:正の半定値行列に対する深いロバスト成分分析
- Authors: Calypso Herrera, Florian Krach, Anastasis Kratsios, Pierre Ruyssen,
Josef Teichmann
- Abstract要約: Deniseは、共分散行列の堅牢なPCAのためのディープラーニングベースのアルゴリズムである。
本実験は, 分解品質の観点から, デニスが最先端の性能と一致することを示す。
- 参考スコア(独自算出の注目度): 8.1371986647556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robust PCA of covariance matrices plays an essential role when isolating
key explanatory features. The currently available methods for performing such a
low-rank plus sparse decomposition are matrix specific, meaning, those
algorithms must re-run for every new matrix. Since these algorithms are
computationally expensive, it is preferable to learn and store a function that
instantaneously performs this decomposition when evaluated. Therefore, we
introduce Denise, a deep learning-based algorithm for robust PCA of covariance
matrices, or more generally of symmetric positive semidefinite matrices, which
learns precisely such a function. Theoretical guarantees for Denise are
provided. These include a novel universal approximation theorem adapted to our
geometric deep learning problem, convergence to an optimal solution of the
learning problem and convergence of the training scheme. Our experiments show
that Denise matches state-of-the-art performance in terms of decomposition
quality, while being approximately 2000x faster than the state-of-the-art, PCP,
and 200x faster than the current speed optimized method, fast PCP.
- Abstract(参考訳): 共分散行列のロバストPCAは、重要な説明的特徴を分離する際に重要な役割を果たす。
そのような低ランク+スパース分解を実行するための現在利用可能な方法はマトリックス固有であり、つまり、これらのアルゴリズムは新しいマトリックスごとに再実行する必要がある。
これらのアルゴリズムは計算コストが高いため、評価時に即座にこの分解を行う関数を学習して保存することが好ましい。
そこで我々は,共分散行列の頑健なPCA,あるいはより一般に対称正の半定値行列の深層学習に基づくアルゴリズムであるDeniseを紹介し,その関数を正確に学習する。
デニスの理論的保証が提供される。
これには、幾何学的深層学習問題に適合する新しい普遍近似定理、学習問題の最適解への収束、トレーニングスキームの収束などが含まれる。
本実験により,Deniseの分解性能は現状のPCPの約2000倍,現在の最適化手法である高速PCPの200倍高速であることがわかった。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Randomly pivoted Cholesky: Practical approximation of a kernel matrix with few entry evaluations [2.7796535578871575]
ランダムにピボットされた部分チョレスキーアルゴリズム(RPCholesky)は、N x N の正準有限(psd)行列の階数-k近似を計算する。
RPCholeskyの単純さ、有効性、堅牢性は、科学計算や機械学習アプリケーションでの使用を強く支持している。
論文 参考訳(メタデータ) (2022-07-13T19:51:24Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Robust CUR Decomposition: Theory and Imaging Applications [9.280330114137778]
本稿では、CUR分解フレームワークにおけるロバストPCAの使用とその応用を検討する。
我々は、ロバストPCAの2つの重要なイメージングアプリケーションを検討する:ビデオフォアグラウンド背景分離と顔モデリング。
論文 参考訳(メタデータ) (2021-01-05T17:58:15Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z) - QR and LQ Decomposition Matrix Backpropagation Algorithms for Square,
Wide, and Deep -- Real or Complex -- Matrices and Their Software
Implementation [0.0]
この記事では、正方形(m = n)、幅(m n)、深さ(m > n)のいずれかの行列のQR分解に対する行列バックプロパゲーションアルゴリズムを、階数$k = min(m, n)$で提示する。
我々は, ピボット(フルランク)QR分解と深部入力行列のLQ分解のための新しい行列バックプロパゲーション結果を得た。
論文 参考訳(メタデータ) (2020-09-19T21:03:37Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z) - Fast Generalized Matrix Regression with Applications in Machine Learning [46.79740387890322]
スケッチ技術を用いてGMR問題を効率的に解く高速一般化行列回帰アルゴリズム(Fast GMR)を提案する。
我々は,Fast GMRアルゴリズムを対称正定値行列近似と単一パス特異値分解に適用する。
論文 参考訳(メタデータ) (2019-12-27T07:03:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。