論文の概要: Improved Privacy-Preserving PCA Using Space-optimized Homomorphic Matrix
Multiplication
- arxiv url: http://arxiv.org/abs/2305.17341v1
- Date: Sat, 27 May 2023 02:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:14:59.940286
- Title: Improved Privacy-Preserving PCA Using Space-optimized Homomorphic Matrix
Multiplication
- Title(参考訳): 空間最適化同型行列乗算によるプライバシー保護PCAの改善
- Authors: Xirong Ma
- Abstract要約: 主成分分析は、機械学習とデータ分析の分野で重要な技術である。
近似算術準同型暗号方式を用いたプライバシー保護PCAのための新しい手法を提案する。
提案手法は, 効率, 精度, 拡張性の観点から, 従来の手法を超越した手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principal Component Analysis (PCA) is a pivotal technique in the fields of
machine learning and data analysis. In this study, we present a novel approach
for privacy-preserving PCA using an approximate numerical arithmetic
homomorphic encryption scheme. We build our method upon a proposed PCA routine
known as the PowerMethod, which takes the covariance matrix as input and
produces an approximate eigenvector corresponding to the first principal
component of the dataset. Our method surpasses previous approaches (e.g.,
Pandas CSCML 21) in terms of efficiency, accuracy, and scalability.
To achieve such efficiency and accuracy, we have implemented the following
optimizations: (i) We optimized a homomorphic matrix multiplication technique
(Jiang et al. SIGSAC 2018) that will play a crucial role in the computation of
the covariance matrix. (ii) We devised an efficient homomorphic circuit for
computing the covariance matrix homomorphically. (iii) We designed a novel and
efficient homomorphic circuit for the PowerMethod that incorporates a
systematic strategy for homomorphic vector normalization enhancing both its
accuracy and practicality.
Our matrix multiplication optimization reduces the minimum rotation key space
required for a $128\times 128$ homomorphic matrix multiplication by up to 64\%,
enabling more extensive parallel computation of multiple matrix multiplication
instances. Our homomorphic covariance matrix computation method manages to
compute the covariance matrix of the MNIST dataset ($60000\times 256$) in 51
minutes. Our privacy-preserving PCA scheme based on our new homomorphic
PowerMethod circuit successfully computes the top 8 principal components of
datasets such as MNIST and Fashion-MNIST in approximately 1 hour, achieving an
r2 accuracy of 0.7 to 0.9, achieving an average speed improvement of over 4
times and offers higher accuracy compared to previous approaches.
- Abstract(参考訳): 主成分分析(PCA)は、機械学習とデータ分析の分野で重要な技術である。
本研究では,近似数値計算準同型暗号法を用いて,プライバシ保存型pcaの新しい手法を提案する。
提案手法は,共分散行列を入力とし,データセットの最初の主成分に対応する近似固有ベクトルを生成するPowerMethodと呼ばれるPCAルーチンに基づいて構築する。
提案手法は,従来の手法(例えば Pandas CSCML 21)を,効率,精度,スケーラビリティの面で上回っている。
このような効率性と精度を達成するため、我々は以下の最適化を実装した。
(i)共分散行列の計算において重要な役割を果たす準同型行列乗法(jiang et al. sigsac 2018)を最適化した。
(ii)共分散行列を準同型に計算するための効率的な準同型回路を考案した。
3) 正準ベクトル正規化の体系的戦略を取り入れ, 精度と実用性を両立させた, 新規で効率的なPowerMethod用準同型回路を設計した。
我々の行列乗算最適化は、128\times 128$準同型行列乗算に必要な最小回転鍵空間を最大64\%削減し、複数の行列乗算インスタンスのより広範な並列計算を可能にする。
我々の同型共分散行列計算法は, MNISTデータセットの共分散行列(60000\times 256$)を51分で計算する。
当社の新しい準同型powermethod回路に基づくプライバシ保護型pcaスキームは,mnistやfashion-mnistといったデータセットの上位8つの主要コンポーネントを約1時間で計算し,0.7~0.9のr2精度を実現し,従来のアプローチと比較して平均4倍の速度向上を達成し,高い精度を実現している。
関連論文リスト
- Learning-Augmented K-Means Clustering Using Dimensional Reduction [1.7243216387069678]
主成分分析(PCA)を用いたデータセットの次元性低減手法を提案する。
PCAは文献でよく確立されており、データモデリング、圧縮、可視化の最も有用なツールの1つになっている。
論文 参考訳(メタデータ) (2024-01-06T12:02:33Z) - Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Nearly-Linear Time and Streaming Algorithms for Outlier-Robust PCA [43.106438224356175]
ほぼ最適誤差保証付き頑健なPCAのためのニア線形時間アルゴリズムを開発した。
また,メモリ使用量にほぼ線形なロバストPCAのためのシングルパスストリーミングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-04T04:45:16Z) - An online algorithm for contrastive Principal Component Analysis [9.090031210111919]
我々は、cPCA*のオンラインアルゴリズムを導き、局所的な学習規則でニューラルネットワークにマップできることを示し、エネルギー効率の良いニューロモルフィックハードウェアで実装できる可能性がある。
実際のデータセット上でのオンラインアルゴリズムの性能を評価し、元の定式化との相違点と類似点を強調した。
論文 参考訳(メタデータ) (2022-11-14T19:48:48Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Robust factored principal component analysis for matrix-valued outlier
accommodation and detection [4.228971753938522]
Factored PCA (FPCA) は行列データに対するPCAの確率的拡張である。
行列データに対するFPCA(RFPCA)の堅牢な拡張を提案する。
RFPCAは適応的に減量し、ロバストな推定値が得られる。
論文 参考訳(メタデータ) (2021-12-13T16:12:22Z) - A Linearly Convergent Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
論文 参考訳(メタデータ) (2021-01-05T00:51:14Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。