論文の概要: Classical Shadow Tomography with Mutually Unbiased Bases
- arxiv url: http://arxiv.org/abs/2310.09644v2
- Date: Thu, 21 Dec 2023 16:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 18:09:26.465779
- Title: Classical Shadow Tomography with Mutually Unbiased Bases
- Title(参考訳): 無バイアスベースを用いた古典的シャドウトモグラフィ
- Authors: Yu Wang and Wei Cui
- Abstract要約: 従来のシャドウトモグラフィではMUB回路をアンサンブルとして用いる方法が研究されている。
一般観測可能量に対して、それらの期待値を予測する分散は、キュービットの数に対して指数関数であることが示される。
MUBs回路のバイアスサンプリングにより、非AMA観測値のばらつきを再びMUBsスパース条件で$poly(n)$に縮めることができる。
- 参考スコア(独自算出の注目度): 10.110896851315557
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Classical shadow tomography, harnessing randomized informationally complete
(IC) measurements, provides an effective avenue for predicting many properties
of unknown quantum states with sample-efficient precision. Projections onto
$2^n+1$ mutually unbiased bases (MUBs) are widely recognized as minimal and
optimal IC measurements for full-state tomography. We study how to use MUBs
circuits as the ensemble in classical shadow tomography. For the general
observables, the variance to predict their expectation value is shown to be
exponential to the number of qubits $n$. However, for a special class termed as
appropriate MUBs-average (AMA) observables, the variance decreases to
$poly(n)$. Additionally, we find that through biased sampling of MUBs circuits,
the variance for non-AMA observables can again be reduced to $poly(n)$ with the
MUBs-sparse condition. The performance and complexity of using the MUBs and
Clifford circuits as the ensemble in the classical shadow tomography are
compared in the end.
- Abstract(参考訳): 古典的シャドウトモグラフィーは、ランダム化された情報完全(IC)測定を利用して、未知の量子状態の多くの特性をサンプル効率の精度で予測する有効な方法を提供する。
2^n+1$の相互偏差ベース(mub)への投影は、フルステートトモグラフィのための最小かつ最適なic測定として広く認識されている。
従来のシャドウトモグラフィではMUB回路をアンサンブルとして用いる方法が研究されている。
一般観測値に対して、それらの期待値を予測する分散は、クォービット数$n$の指数関数であることが示される。
しかし、適切な mubs-average (ama) observables と呼ばれる特別なクラスでは、分散は $poly(n)$ に減少する。
さらに、MUBs回路のバイアスサンプリングにより、非AMA観測値のばらつきを再びMUBsスパース条件で$poly(n)$に縮めることができる。
古典シャドウトモグラフィにおけるアンサンブルとして MUB と Clifford 回路を用いた場合の性能と複雑さを比較した。
関連論文リスト
- Real classical shadows [0.0]
我々は、$mathcalU$が局所または大域クリフォードゲートに対応し、$mathcalW$が実数値ベクトルからなる場合を研究する。
提案手法は,様々な状況において,従来のシャドウプロトコルが標準スキームの複雑さを向上することを示す。
論文 参考訳(メタデータ) (2024-10-30T22:15:39Z) - Improved classical shadows from local symmetries in the Schur basis [4.462208715451194]
従来のシャドウタスクのサンプル複雑性について検討する。
サンプルの複雑さが未知の状態のランクとともにスケールする古典的影に対する最初の共同測定プロトコルを提案する。
論文 参考訳(メタデータ) (2024-05-15T17:33:10Z) - Resource-efficient shadow tomography using equatorial stabilizer measurements [0.0]
equatorial-stabilizer-based shadow-tomography schemes can estimated $M$ observables using $mathcalO(log(M), mathrmpoly(n), 1/varepsilon2)$ sample copy.
我々は、ランダムな純状態とマルチキュービットグラフ状態を持つ理論的に派生したシャドウ・トモグラフィー・サンプリングの複雑さを数値的に検証する。
論文 参考訳(メタデータ) (2023-11-24T17:33:44Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Lower bounds for learning quantum states with single-copy measurements [3.2590610391507444]
量子トモグラフィーとシャドウトモグラフィーの問題点を,未知の$d$次元状態の個々のコピーを用いて測定した。
特に、この手法は、その複雑さの観点から、フォークロアのパウリ・トモグラフィー(Pauli tomography)アルゴリズムの最適性を厳格に確立する。
論文 参考訳(メタデータ) (2022-07-29T02:26:08Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。