論文の概要: The debiased Keyl's algorithm: a new unbiased estimator for full state tomography
- arxiv url: http://arxiv.org/abs/2510.07788v1
- Date: Thu, 09 Oct 2025 05:07:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.872986
- Title: The debiased Keyl's algorithm: a new unbiased estimator for full state tomography
- Title(参考訳): 脱バイアスされたキールのアルゴリズム : フルステートトモグラフィーのための新しい非バイアス推定器
- Authors: Angelos Pelecanos, Jack Spilecki, John Wright,
- Abstract要約: 完全状態トモグラフィーのための最初の推定器であるデバイアスド・キールのアルゴリズムについて述べる。
我々は、$n = O(rd/varepsilon2)$コピーが、最適な距離誤差である$varepsilon$をトレースするためにランク-r$混合状態を学ぶのに十分であることを示す。
さらに、$n = O(rd/varepsilon2)$コピーは、より困難なBures距離で$varepsilon$の誤りを学習するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 1.4302622916198997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the problem of quantum state tomography, one is given $n$ copies of an unknown rank-$r$ mixed state $\rho \in \mathbb{C}^{d \times d}$ and asked to produce an estimator of $\rho$. In this work, we present the debiased Keyl's algorithm, the first estimator for full state tomography which is both unbiased and sample-optimal. We derive an explicit formula for the second moment of our estimator, with which we show the following applications. (1) We give a new proof that $n = O(rd/\varepsilon^2)$ copies are sufficient to learn a rank-$r$ mixed state to trace distance error $\varepsilon$, which is optimal. (2) We further show that $n = O(rd/\varepsilon^2)$ copies are sufficient to learn to error $\varepsilon$ in the more challenging Bures distance, which is also optimal. (3) We consider full state tomography when one is only allowed to measure $k$ copies at once. We show that $n =O\left(\max \left(\frac{d^3}{\sqrt{k}\varepsilon^2}, \frac{d^2}{\varepsilon^2} \right) \right)$ copies suffice to learn in trace distance. This improves on the prior work of Chen et al. and matches their lower bound. (4) For shadow tomography, we show that $O(\log(m)/\varepsilon^2)$ copies are sufficient to learn $m$ given observables $O_1, \dots, O_m$ in the "high accuracy regime", when $\varepsilon = O(1/d)$, improving on a result of Chen et al. More generally, we show that if $\mathrm{tr}(O_i^2) \leq F$ for all $i$, then $n = O\Big(\log(m) \cdot \Big(\min\Big\{\frac{\sqrt{r F}}{\varepsilon}, \frac{F^{2/3}}{\varepsilon^{4/3}}\Big\} + \frac{1}{\varepsilon^2}\Big)\Big)$ copies suffice, improving on existing work. (5) For quantum metrology, we give a locally unbiased algorithm whose mean squared error matrix is upper bounded by twice the inverse of the quantum Fisher information matrix in the asymptotic limit of large $n$, which is optimal.
- Abstract(参考訳): 量子状態トモグラフィーの問題は、未知のランク-$r$混合状態 $\rho \in \mathbb{C}^{d \times d} のコピーを$n$で与えられ、$\rho$の推定値を生成するように要求される。
本研究では,完全状態トモグラフィーのための最初の推定器である脱バイアス化キールのアルゴリズムについて述べる。
推定器の第2モーメントの明示的な式を導出し、以下の応用例を示す。
1) $n = O(rd/\varepsilon^2)$コピーはランク=r$混合状態からトレース距離誤差$\varepsilon$を学習するのに十分であることを示す。
2) さらに、$n = O(rd/\varepsilon^2)$コピーは、より困難なBures距離で$\varepsilon$を誤りから学ぶのに十分であることを示す。
(3) 一度に$k$コピーを測ることしか許されない状態トモグラフィーについて検討する。
n = O\left(\max \left(\frac{d^3}{\sqrt{k}\varepsilon^2}, \frac{d^2}{\varepsilon^2} \right) \right)$ suffice でトレース距離を学習する。
これは Chen らによる以前の作業を改善し、その下限と一致する。
(4) シャドウトモグラフィーでは、$O(\log(m)/\varepsilon^2)$コピーは、$m$が与えられた可観測量$O_1, \dots, O_m$を「高い精度のレギュレーション」で学ぶのに十分であることを示し、$\varepsilon = O(1/d)$が Chen と al の結果を改善した場合、より一般的に、$\mathrm{tr}(O_i^2) \leq F$がすべての$i$の場合、$n = O\Big(\log(m) \cdot \Big(\min\Big\{\frac {\sqrt{r F}}{\varepsilon}, \frac{F^{2/}}{\varepsilon/4/3\\cdot{varepsilon +O(1/d)$が既存のコピーを改善することを示している。
(5) 量子メートル法では,平均2乗誤差行列が2倍の量子フィッシャー情報行列の漸近限界で上界に有界な局所的非バイアス付きアルゴリズムが最適である。
関連論文リスト
- Optimal lower bounds for quantum state tomography [0.9969485010222057]
in mathbbCd times d$ up to error $varepsilon$ in trace distance において、$n = Omega(rd/varepsilon2)$コピーは階数 $r$ mixed state $rho を学ぶために必要であることを示す。
我々の証明における重要な技術的要素は、プロジェクタートモグラフィーのアルゴリズムで、トレース距離で$varepsilon$の誤差を学習するアルゴリズムを、より厳密なBuresで$O(varepsilon)$の誤差を学習するアルゴリズムに変換することである。
論文 参考訳(メタデータ) (2025-10-09T02:36:48Z) - Optimal Sketching for Residual Error Estimation for Matrix and Vector Norms [50.15964512954274]
線形スケッチを用いた行列とベクトルノルムの残差誤差推定問題について検討する。
これは、前作とほぼ同じスケッチサイズと精度で、経験的にかなり有利であることを示す。
また、スパースリカバリ問題に対して$Omega(k2/pn1-2/p)$低いバウンダリを示し、これは$mathrmpoly(log n)$ factorまで厳密である。
論文 参考訳(メタデータ) (2024-08-16T02:33:07Z) - Sample-Efficient Linear Regression with Self-Selection Bias [7.605563562103568]
未知のインデックス設定における自己選択バイアスを伴う線形回帰の問題を考察する。
我々は,$mathbfw_1,ldots,mathbfw_kinを復元する,新しい,ほぼ最適なサンプル効率($k$)アルゴリズムを提案する。
このアルゴリズムは雑音の仮定をかなり緩めることに成功し、従って関連する最大線形回帰の設定にも成功している。
論文 参考訳(メタデータ) (2024-02-22T02:20:24Z) - Quantum chi-squared tomography and mutual information testing [1.8416014644193066]
ランク-$r$次元-$d$状態の量子状態トモグラフィーでは、$widetildeO(r.5d1.5/epsilon) leq widetildeO(d3/epsilon)$ copy suffice for accuracy$epsilon$ to the (Bures) $chi2$-divergence を示す。
我々はまた、相互情報テストの古典版における最もよく知られたサンプルの複雑さを$widetildeO(d)に改善する。
論文 参考訳(メタデータ) (2023-05-29T18:00:02Z) - Detection of Dense Subhypergraphs by Low-Degree Polynomials [72.4451045270967]
ランダムグラフにおける植込み高密度部分グラフの検出は、基本的な統計的および計算上の問題である。
我々は、$Gr(n, n-beta)ハイパーグラフにおいて、植えた$Gr(ngamma, n-alpha)$ subhypergraphの存在を検出することを検討する。
平均値の減少に基づく硬さが不明な微妙な対数密度構造を考えると,この結果はグラフの場合$r=2$で既に新しくなっている。
論文 参考訳(メタデータ) (2023-04-17T10:38:08Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Low-degree learning and the metric entropy of polynomials [44.99833362998488]
少なくとも$Omega(sqrtvarepsilon)2dlog n leq log mathsfM(mathscrF_n,d,|cdot|_L,varepsilon)は2辺の推定値$c(1-varepsilon)2dlogを満たす。
論文 参考訳(メタデータ) (2022-03-17T23:52:08Z) - Infinite-Horizon Offline Reinforcement Learning with Linear Function
Approximation: Curse of Dimensionality and Algorithm [46.36534144138337]
本稿では,オフライン強化学習におけるポリシー評価のサンプル複雑さについて検討する。
低分布シフトの仮定の下では、最大$oleft(maxleft fracleftvert thetapirightvert _24varepsilon4logfracddelta,frac1varepsilon2left(d+logfrac1deltaright)right right)$サンプルを必要とするアルゴリズムがあることを示す。
論文 参考訳(メタデータ) (2021-03-17T18:18:57Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。