論文の概要: Thresholded Oja does Sparse PCA?
- arxiv url: http://arxiv.org/abs/2402.07240v2
- Date: Tue, 20 Feb 2024 05:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 18:46:49.167006
- Title: Thresholded Oja does Sparse PCA?
- Title(参考訳): 閾値オジャはpcaを弱めるか?
- Authors: Syamantak Kumar and Purnamrita Sarkar
- Abstract要約: Ojaのアルゴリズムの出力をしきい値にし、再正規化する単純なアルゴリズムが、ほぼ最適誤差率を得ることを示す。
解析は、非正規化 Oja ベクトルの成分の有界化を中心に行われる。
- 参考スコア(独自算出の注目度): 8.339831319589134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of Sparse Principal Component Analysis (PCA) when the
ratio $d/n \rightarrow c > 0$. There has been a lot of work on optimal rates on
sparse PCA in the offline setting, where all the data is available for multiple
passes. In contrast, when the population eigenvector is $s$-sparse, streaming
algorithms that have $O(d)$ storage and $O(nd)$ time complexity either
typically require strong initialization conditions or have a suboptimal error.
We show that a simple algorithm that thresholds and renormalizes the output of
Oja's algorithm (the Oja vector) obtains a near-optimal error rate. This is
very surprising because, without thresholding, the Oja vector has a large
error. Our analysis centers around bounding the entries of the unnormalized Oja
vector, which involves the projection of a product of independent random
matrices on a random initial vector. This is nontrivial and novel since
previous analyses of Oja's algorithm and matrix products have been done when
the trace of the population covariance matrix is bounded while in our setting,
this quantity can be as large as $n$.
- Abstract(参考訳): スパース主成分分析(PCA)の問題は、$d/n \rightarrow c > 0$である。
オフライン環境では、すべてのデータが複数のパスで利用できる、スパースPCAの最適レートについて多くの研究がなされている。
対照的に、人口固有ベクトルが$s$-sparseである場合、ストリーミングアルゴリズムは$o(d)$ストレージと$o(nd)$時間の複雑さを持つ。
我々はOjaのアルゴリズム(Ojaベクトル)の出力をしきい値と再正規化する単純なアルゴリズムが、ほぼ最適誤差率を得ることを示す。
しきい値がなければ、Ojaベクトルは大きな誤差を持つため、これは非常に驚くべきことである。
解析は、ランダム初期ベクトル上の独立なランダム行列の積の射影を含む非正規化 oja ベクトルのエントリを束縛することに集中する。
このことは、Ojaのアルゴリズムと行列積の以前の解析は、我々の設定において、集団共分散行列のトレースが有界であるときに行われており、この量は$n$にも達する。
関連論文リスト
- Optimal Sketching for Residual Error Estimation for Matrix and Vector Norms [50.15964512954274]
線形スケッチを用いた行列とベクトルノルムの残差誤差推定問題について検討する。
これは、前作とほぼ同じスケッチサイズと精度で、経験的にかなり有利であることを示す。
また、スパースリカバリ問題に対して$Omega(k2/pn1-2/p)$低いバウンダリを示し、これは$mathrmpoly(log n)$ factorまで厳密である。
論文 参考訳(メタデータ) (2024-08-16T02:33:07Z) - List-Decodable Sparse Mean Estimation via Difference-of-Pairs Filtering [42.526664955704746]
そこで我々は,リストデコダブルなスパース平均推定のための,新しい,概念的にシンプルな手法を開発した。
特に、$k$-sparse方向の「確実に有界な」$t-thモーメントを持つ分布の場合、このアルゴリズムは、サンプル複雑性$m = (klog(n))O(t)/alpha(mnt)$の誤差を1/alpha(O (1/t)$で達成する。
Gaussian inliers の特別な場合、我々のアルゴリズムは $Theta (sqrtlog) の最適誤差を保証する。
論文 参考訳(メタデータ) (2022-06-10T17:38:18Z) - Sketching Algorithms and Lower Bounds for Ridge Regression [65.0720777731368]
リッジ回帰問題に対する1+varepsilon$近似解を計算するスケッチベース反復アルゴリズムを提案する。
また,このアルゴリズムがカーネルリッジ回帰の高速化に有効であることを示す。
論文 参考訳(メタデータ) (2022-04-13T22:18:47Z) - Clustering Mixture Models in Almost-Linear Time via List-Decodable Mean
Estimation [58.24280149662003]
本稿では,データセットの大部分を敵が破壊できるリストデコタブル平均推定の問題について検討する。
我々は、ほぼ最適な統計的保証を達成するために、リストデコダブル平均推定のための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T03:34:14Z) - Learning a Latent Simplex in Input-Sparsity Time [58.30321592603066]
我々は、$AinmathbbRdtimes n$へのアクセスを考えると、潜入$k$-vertex simplex $KsubsetmathbbRdtimes n$を学習する問題を考える。
実行時間における$k$への依存は、トップ$k$特異値の質量が$a$であるという自然な仮定から不要であることを示す。
論文 参考訳(メタデータ) (2021-05-17T16:40:48Z) - List-Decodable Mean Estimation in Nearly-PCA Time [50.79691056481693]
高次元におけるリストデコタブル平均推定の基本的な課題について検討する。
我々のアルゴリズムは、すべての$k = O(sqrtd) cup Omega(d)$に対して$widetildeO(ndk)$で実行されます。
我々のアルゴリズムの変種は、すべての$k$に対してランタイム$widetildeO(ndk)$を持ち、リカバリ保証の$O(sqrtlog k)$ Factorを犠牲にしている。
論文 参考訳(メタデータ) (2020-11-19T17:21:37Z) - The Average-Case Time Complexity of Certifying the Restricted Isometry
Property [66.65353643599899]
圧縮センシングにおいて、100万倍のN$センシング行列上の制限等尺性(RIP)はスパースベクトルの効率的な再構成を保証する。
Mtimes N$ matrices with i.d.$mathcalN(0,1/M)$ entry。
論文 参考訳(メタデータ) (2020-05-22T16:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。