論文の概要: FAST-PCA: A Fast and Exact Algorithm for Distributed Principal Component
Analysis
- arxiv url: http://arxiv.org/abs/2108.12373v1
- Date: Fri, 27 Aug 2021 16:10:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:00:31.092470
- Title: FAST-PCA: A Fast and Exact Algorithm for Distributed Principal Component
Analysis
- Title(参考訳): fast-pca:分散主成分分析のための高速高精度アルゴリズム
- Authors: Arpita Gang and Waheed U. Bajwa
- Abstract要約: 主成分分析(PCA)は、機械学習の世界における基本的なデータ前処理ツールである。
本稿では,FAST-PCA (Fast and exact distributed PCA) と呼ばれる分散PCAアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 12.91948651812873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principal Component Analysis (PCA) is a fundamental data preprocessing tool
in the world of machine learning. While PCA is often reduced to dimension
reduction, the purpose of PCA is actually two-fold: dimension reduction and
feature learning. Furthermore, the enormity of the dimensions and sample size
in the modern day datasets have rendered the centralized PCA solutions
unusable. In that vein, this paper reconsiders the problem of PCA when data
samples are distributed across nodes in an arbitrarily connected network. While
a few solutions for distributed PCA exist those either overlook the feature
learning part of the purpose, have communication overhead making them
inefficient and/or lack exact convergence guarantees. To combat these
aforementioned issues, this paper proposes a distributed PCA algorithm called
FAST-PCA (Fast and exAct diSTributed PCA). The proposed algorithm is efficient
in terms of communication and can be proved to converge linearly and exactly to
the principal components that lead to dimension reduction as well as
uncorrelated features. Our claims are further supported by experimental
results.
- Abstract(参考訳): 主成分分析(PCA)は、機械学習の世界における基本的なデータ前処理ツールである。
PCAは次元還元に還元されることが多いが、PCAの目的は実際には2倍の次元還元と特徴学習である。
さらに、現代のデータセットの次元とサンプルサイズは、集中型PCAソリューションを使用不能にしている。
そこで本研究では,データサンプルを任意接続ネットワーク内のノードに分散する場合に,pcaの問題を再検討する。
分散PCAのいくつかのソリューションは、目的の機能学習部分を見落としているか、通信オーバーヘッドによって効率が悪く、正確な収束保証が欠如している。
本稿では,FAST-PCA (Fast and exAct diSTributed PCA) と呼ばれる分散PCAアルゴリズムを提案する。
提案アルゴリズムは通信の点で効率的であり,次元の減少につながる主成分や非相関な特徴に線形かつ正確に収束することが証明できる。
我々の主張は実験結果によってさらに裏付けられている。
関連論文リスト
- Nearly-Linear Time and Streaming Algorithms for Outlier-Robust PCA [43.106438224356175]
ほぼ最適誤差保証付き頑健なPCAのためのニア線形時間アルゴリズムを開発した。
また,メモリ使用量にほぼ線形なロバストPCAのためのシングルパスストリーミングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-04T04:45:16Z) - Accelerating Wireless Federated Learning via Nesterov's Momentum and
Distributed Principle Component Analysis [59.127630388320036]
サーバと作業員が無線チャネルを介して未コーディング情報を交換できるようにすることにより、無線連合学習システムについて検討する。
ワーカは、帯域幅に制限のあるチャネルを介して、しばしばサーバにローカルにアップロードするため、ワーカからサーバへのアップリンク送信は、通信ボトルネックとなる。
ワンショット分散原理成分分析(PCA)を利用して通信ボトルネックの次元を縮小する。
論文 参考訳(メタデータ) (2023-03-31T08:41:42Z) - Efficient fair PCA for fair representation learning [21.990310743597174]
そこで本研究では,標準的なPCAに類似した解析解をカーネル化可能な,概念的にシンプルなアプローチを提案する。
提案手法は,標準PCAやカーネルPCAと同じ複雑さを持ち,半定値プログラミングや多様体最適化に基づく等価PCAの既存手法よりもはるかに高速に動作する。
論文 参考訳(メタデータ) (2023-02-26T13:34:43Z) - An online algorithm for contrastive Principal Component Analysis [9.090031210111919]
我々は、cPCA*のオンラインアルゴリズムを導き、局所的な学習規則でニューラルネットワークにマップできることを示し、エネルギー効率の良いニューロモルフィックハードウェアで実装できる可能性がある。
実際のデータセット上でのオンラインアルゴリズムの性能を評価し、元の定式化との相違点と類似点を強調した。
論文 参考訳(メタデータ) (2022-11-14T19:48:48Z) - Distributed Robust Principal Analysis [0.0]
分散環境でのロバストな主成分分析問題について検討する。
DCF-PCAと呼ばれるコンセンサス因数分解に基づく最初の分散ロバストな主解析アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-24T05:45:07Z) - AgFlow: Fast Model Selection of Penalized PCA via Implicit
Regularization Effects of Gradient Flow [64.81110234990888]
主成分分析(PCA)は特徴抽出と次元減少の有効な手法として広く用いられている。
High Dimension Low Sample Size (HDLSS) 設定では、ペナル化ロードを備えた修正主成分が好まれる。
ペナル化PCAの高速モデル選択法として近似勾配流(AgFlow)を提案する。
論文 参考訳(メタデータ) (2021-10-07T08:57:46Z) - Turning Channel Noise into an Accelerator for Over-the-Air Principal
Component Analysis [65.31074639627226]
主成分分析(PCA)は、データセットの線形構造を抽出するための技術です。
勾配降下アルゴリズムに基づくマルチアクセスチャネル上にPCAを配置する手法を提案する。
オーバー・ザ・エア・アグリゲーションはマルチ・アクセスの遅延を減らすために採用され、オーバー・ザ・エア・PCAという名称を与える。
論文 参考訳(メタデータ) (2021-04-20T16:28:33Z) - Enhanced Principal Component Analysis under A Collaborative-Robust
Framework [89.28334359066258]
重み学習とロバストな損失を非自明な方法で組み合わせる,一般的な協調ロバスト重み学習フレームワークを提案する。
提案されたフレームワークでは、トレーニング中の重要度を示す適切なサンプルの一部のみがアクティブになり、エラーが大きい他のサンプルは無視されません。
特に、不活性化試料の負の効果はロバスト損失関数によって軽減される。
論文 参考訳(メタデータ) (2021-03-22T15:17:37Z) - A Linearly Convergent Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
論文 参考訳(メタデータ) (2021-01-05T00:51:14Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。