論文の概要: A Linearly Convergent Algorithm for Distributed Principal Component
Analysis
- arxiv url: http://arxiv.org/abs/2101.01300v1
- Date: Tue, 5 Jan 2021 00:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:39:21.329350
- Title: A Linearly Convergent Algorithm for Distributed Principal Component
Analysis
- Title(参考訳): 分散主成分分析のための線形収束アルゴリズム
- Authors: Arpita Gang and Waheed U. Bajwa
- Abstract要約: 本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
- 参考スコア(独自算出の注目度): 12.91948651812873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principal Component Analysis (PCA) is the workhorse tool for dimensionality
reduction in this era of big data. While often overlooked, the purpose of PCA
is not only to reduce data dimensionality, but also to yield features that are
uncorrelated. This paper focuses on this dual objective of PCA, namely,
dimensionality reduction and decorrelation of features, which requires
estimating the eigenvectors of a data covariance matrix, as opposed to only
estimating the subspace spanned by the eigenvectors. The ever-increasing volume
of data in the modern world often requires storage of data samples across
multiple machines, which precludes the use of centralized PCA algorithms.
Although a few distributed solutions to the PCA problem have been proposed
recently, convergence guarantees and/or communications overhead of these
solutions remain a concern. With an eye towards communications efficiency, this
paper introduces a feedforward neural network-based one time-scale distributed
PCA algorithm termed Distributed Sanger's Algorithm (DSA) that estimates the
eigenvectors of a data covariance matrix when data are distributed across an
undirected and arbitrarily connected network of machines. Furthermore, the
proposed algorithm is shown to converge linearly to a neighborhood of the true
solution. Numerical results are also shown to demonstrate the efficacy of the
proposed solution.
- Abstract(参考訳): 主成分分析 (PCA) は, ビッグデータ時代における次元削減のための作業用ツールである。
しばしば見過ごされるが、PCAの目的はデータ次元を減らすだけでなく、非相関な特徴を生み出すことである。
本稿では,データ共分散行列の固有ベクトルを推定する必要があるPCAのこの2つの目的,すなわち特徴の次元的減少とデコリレーションに焦点を当てる。
現代のデータ量の増加は、複数のマシンにまたがるデータサンプルの保存を必要とすることが多く、集中型PCAアルゴリズムの使用を妨げている。
近年,PCA問題に対する分散ソリューションがいくつか提案されているが,収束保証や通信オーバーヘッドが懸念されている。
本稿では,データ共分散行列の固有ベクトルを推定する分散sanger's algorithm (dsa) と呼ばれる,一時間スケールの分散pcaアルゴリズムを提案する。
さらに,提案アルゴリズムは真の解の近傍に線形に収束することを示した。
また,提案手法の有効性を示す数値実験を行った。
関連論文リスト
- Learning-Augmented K-Means Clustering Using Dimensional Reduction [1.7243216387069678]
主成分分析(PCA)を用いたデータセットの次元性低減手法を提案する。
PCAは文献でよく確立されており、データモデリング、圧縮、可視化の最も有用なツールの1つになっている。
論文 参考訳(メタデータ) (2024-01-06T12:02:33Z) - Improved Privacy-Preserving PCA Using Optimized Homomorphic Matrix
Multiplication [0.0]
主成分分析(英: principal Component Analysis、PCA)は、機械学習とデータ分析の領域で広く利用されている重要な技術である。
近年,セキュアなクラウドコンピューティングシナリオにおいて,プライバシ保護型PCAアルゴリズムの同型暗号化を活用する取り組みが進められている。
本稿では,これらの制約に対処するプライバシー保護PCAに対して,従来の手法に比べて効率,精度,拡張性に優れる新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-27T02:51:20Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - FAST-PCA: A Fast and Exact Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
主成分分析(PCA)は、機械学習の世界における基本的なデータ前処理ツールである。
本稿では,FAST-PCA (Fast and exact distributed PCA) と呼ばれる分散PCAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-27T16:10:59Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Distributed Principal Subspace Analysis for Partitioned Big Data:
Algorithms, Analysis, and Implementation [9.730443503568804]
主部分空間解析(PSA)は、信号処理と機械学習における次元性低減のための最も一般的な手法の1つである。
集中型PSAソリューションは、最近のビッグデータでは急速に無関係になりつつある。
本稿では,マシンの任意の接続ネットワークの一般的な枠組みの下での分散PSAの問題を再考する。
論文 参考訳(メタデータ) (2021-03-11T01:33:38Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - Communication-efficient distributed eigenspace estimation [31.69089186688224]
我々は,データ行列の先頭不変部分空間を計算するための通信効率のよい分散アルゴリズムを開発した。
提案アルゴリズムは局所解と参照解の間のプロクリスト距離を最小化する新しいアライメント方式を用いる。
本アルゴリズムは,集中型推定器と同様の誤差率を示す。
論文 参考訳(メタデータ) (2020-09-05T02:11:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。