論文の概要: Covariance matrix preparation for quantum principal component analysis
- arxiv url: http://arxiv.org/abs/2204.03495v1
- Date: Thu, 7 Apr 2022 15:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:04:19.348997
- Title: Covariance matrix preparation for quantum principal component analysis
- Title(参考訳): 量子主成分分析のための共分散行列作成
- Authors: Max Hunter Gordon, M. Cerezo, Lukasz Cincio, Patrick J. Coles
- Abstract要約: 主成分分析 (PCA) はデータ解析における次元還元法である。
密度行列の対角化に基づくPCAの量子アルゴリズムが定式化されている。
本手法は分子基底状態データセットに対して数値的に実装する。
- 参考スコア(独自算出の注目度): 0.8258451067861933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principal component analysis (PCA) is a dimensionality reduction method in
data analysis that involves diagonalizing the covariance matrix of the dataset.
Recently, quantum algorithms have been formulated for PCA based on
diagonalizing a density matrix. These algorithms assume that the covariance
matrix can be encoded in a density matrix, but a concrete protocol for this
encoding has been lacking. Our work aims to address this gap. Assuming
amplitude encoding of the data, with the data given by the ensemble $\{p_i,|
\psi_i \rangle\}$, then one can easily prepare the ensemble average density
matrix $\overline{\rho} = \sum_i p_i |\psi_i\rangle \langle \psi_i |$. We first
show that $\overline{\rho}$ is precisely the covariance matrix whenever the
dataset is centered. For quantum datasets, we exploit global phase symmetry to
argue that there always exists a centered dataset consistent with
$\overline{\rho}$, and hence $\overline{\rho}$ can always be interpreted as a
covariance matrix. This provides a simple means for preparing the covariance
matrix for arbitrary quantum datasets or centered classical datasets. For
uncentered classical datasets, our method is so-called "PCA without centering",
which we interpret as PCA on a symmetrized dataset. We argue that this closely
corresponds to standard PCA, and we derive equations and inequalities that
bound the deviation of the spectrum obtained with our method from that of
standard PCA. We numerically illustrate our method for the MNIST handwritten
digit dataset. We also argue that PCA on quantum datasets is natural and
meaningful, and we numerically implement our method for molecular ground-state
datasets.
- Abstract(参考訳): 主成分分析 (principal component analysis, pca) は、データセットの共分散行列の対角化を伴うデータ解析における次元性低減法である。
近年,密度行列の対角化に基づくPCAの量子アルゴリズムが定式化されている。
これらのアルゴリズムは共分散行列を密度行列に符号化できると仮定するが、この符号化のための具体的なプロトコルは欠如している。
私たちの仕事は、このギャップに対処することを目的としています。
データの振幅符号化を仮定すると、アンサンブル $\{p_i,| \psi_i \rangle\}$ で与えられるデータは、アンサンブル平均密度行列 $\overline{\rho} = \sum_i p_i |\psi_i\rangle \langle \psi_i |$ を簡単に作成できる。
まず、$\overline{\rho}$ はデータセットが中心であるときは常にちょうど共分散行列であることを示す。
量子データセットでは、大域的な位相対称性を利用して、常に$\overline{\rho}$と一致する中心的データセットが存在するので、$\overline{\rho}$は常に共分散行列として解釈できる。
これは任意の量子データセットや中心となる古典データセットの共分散行列を作成する単純な手段を提供する。
非中心型古典データセットの場合、この手法はいわゆる「中心化なしPCA」と呼ばれ、シンメトリズドデータセット上でPCAと解釈する。
我々は、これは標準PCAと密接に対応し、標準PCAから得られたスペクトルの偏差を束縛する方程式や不等式を導出する。
我々は,MNIST手書き桁データセットの数値的記述を行う。
また、量子データセット上のPCAは自然かつ有意義であり、分子基底状態データセットに対して数値的に実装する。
関連論文リスト
- A Generalized Mean Approach for Distributed-PCA [0.0]
本稿では,行列$beta$-meanを用いて固有値情報を用いて局所的な結果を集約するDPCA手法を提案する。
$beta$-DPCAは、$beta$値の調整可能な選択を通じて、柔軟で堅牢なアグリゲーションを提供する。
論文 参考訳(メタデータ) (2024-10-01T04:39:40Z) - Sparse PCA with Oracle Property [115.72363972222622]
新規な正規化を伴うスパースPCAの半定緩和に基づく推定器群を提案する。
我々は、家族内の別の推定器が、スパースPCAの標準半定緩和よりも、より急激な収束率を達成することを証明した。
論文 参考訳(メタデータ) (2023-12-28T02:52:54Z) - Hybrid Model-based / Data-driven Graph Transform for Image Coding [54.31406300524195]
予測内残差ブロックを符号化するハイブリッドモデルベース/データ駆動方式を提案する。
変換行列の最初の$K$固有ベクトルは、安定性のための非対称離散正弦変換(ADST)のような統計モデルから導かれる。
WebPをベースライン画像として使用することにより、我々のハイブリッドグラフ変換は、デフォルトの離散コサイン変換(DCT)よりもエネルギーの圧縮が良く、KLTよりも安定性がよいことを示す。
論文 参考訳(メタデータ) (2022-03-02T15:36:44Z) - Leverage Score Sampling for Tensor Product Matrices in Input Sparsity
Time [54.65688986250061]
我々は,$q$-foldカラムワイドテンソル積の$q$行列に対応するグラム行列を近似するための入力空間時間サンプリングアルゴリズムを提案する。
我々のサンプリング技術は、合計時間でデータセット$X$に同時に適用できる$q$部分相関ランダムプロジェクションのコレクションに依存している。
論文 参考訳(メタデータ) (2022-02-09T15:26:03Z) - Sparse PCA on fixed-rank matrices [0.05076419064097732]
共分散行列のランクが固定値であれば、大域的最適性に対してスパースPCAを解くアルゴリズムが存在することを示す。
また,主成分の非結合性を必要とするスパースPCAについても同様の結果が得られた。
論文 参考訳(メタデータ) (2022-01-07T15:05:32Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Unlabeled Principal Component Analysis and Matrix Completion [25.663593359761336]
本稿では、列のエントリが置換によって破損したデータ行列から、ロバストな主成分分析を導入する。
UPCAに類似したフレーバーの理論とアルゴリズムを導出する。
合成データ、顔画像、教育および医療記録の実験は、データ民営化やレコードリンクのような応用のためのアルゴリズムの可能性を明らかにする。
論文 参考訳(メタデータ) (2021-01-23T07:34:48Z) - A Linearly Convergent Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
論文 参考訳(メタデータ) (2021-01-05T00:51:14Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - List-Decodable Mean Estimation in Nearly-PCA Time [50.79691056481693]
高次元におけるリストデコタブル平均推定の基本的な課題について検討する。
我々のアルゴリズムは、すべての$k = O(sqrtd) cup Omega(d)$に対して$widetildeO(ndk)$で実行されます。
我々のアルゴリズムの変種は、すべての$k$に対してランタイム$widetildeO(ndk)$を持ち、リカバリ保証の$O(sqrtlog k)$ Factorを犠牲にしている。
論文 参考訳(メタデータ) (2020-11-19T17:21:37Z) - A New Basis for Sparse Principal Component Analysis [5.258928416164104]
以前のスパース主成分分析では、固有基底 ($p 倍 k$ 行列) がほぼスパースであると仮定されていた。
我々は、$p × k$ 行列が、$k × k$ 回転の後にほぼスパースとなると仮定する手法を提案する。
同レベルの疎度では,提案したスパースPCA法の方が安定であり,代替手法よりも分散を説明できることを示す。
論文 参考訳(メタデータ) (2020-07-01T16:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。