論文の概要: Improved Lower Bounds for Learning Quantum Channels in Diamond Distance
- arxiv url: http://arxiv.org/abs/2601.04180v1
- Date: Wed, 07 Jan 2026 18:48:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.719609
- Title: Improved Lower Bounds for Learning Quantum Channels in Diamond Distance
- Title(参考訳): ダイヤモンド距離における量子チャネル学習のための下界の改善
- Authors: Aadil Oufkir, Filippo Girardi,
- Abstract要約: 入力次元$d_A$,出力次元$d_B$,Choi rank $r$ to Diamond distance $varepsilon$ requires $!left( fracd_A d_B rvarepsilon log(d_B r / varepsilon) right$ query。
- 参考スコア(独自算出の注目度): 2.1198879079315573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove that learning an unknown quantum channel with input dimension $d_A$, output dimension $d_B$, and Choi rank $r$ to diamond distance $\varepsilon$ requires $ Ω\!\left( \frac{d_A d_B r}{\varepsilon \log(d_B r / \varepsilon)} \right)$ queries. This improves the best previous $Ω(d_A d_B r)$ bound by introducing explicit $\varepsilon$-dependence, with a scaling in $\varepsilon$ that is near-optimal when $d_A=rd_B$ but not tight in general. The proof constructs an ensemble of channels that are well-separated in diamond norm yet admit Stinespring isometries that are close in operator norm.
- Abstract(参考訳): 入力次元$d_A$,出力次元$d_B$,Choi rank $r$ to Diamond distance $\varepsilon$ Ω\!
\left( \frac{d_A d_B r}{\varepsilon \log(d_B r / \varepsilon)} \right)$ クエリ。
これは、明示的な$\varepsilon$-dependenceを導入することで、以前の$Ω(d_A d_B r)$boundを改善する。
この証明は、ダイヤモンドノルムで十分に区切られたチャネルのアンサンブルを構成するが、作用素ノルムで近いスタインスプリングイソメトリーを許容する。
関連論文リスト
- Quantum channel tomography and estimation by local test [32.904052887092284]
Heisenberg scale $O(1/varepsilon)$は、$mathcalE$がユニタリチャネルでない場合でも達成できる。
並行(おそらく一貫性のある)テスタにとって、ダイレーションへのアクセスは役に立ちません。
論文 参考訳(メタデータ) (2025-12-15T18:07:42Z) - Near-Optimal Convergence of Accelerated Gradient Methods under Generalized and $(L_0, L_1)$-Smoothness [57.93371273485736]
我々は、最近提案された$ell$-smoothness条件$|nabla2f(x)|| le ellleft(||nabla f(x)||right),$$$L$-smoothnessと$(L_0,L_1)$-smoothnessを一般化する関数を持つ凸最適化問題の一階法について検討する。
論文 参考訳(メタデータ) (2025-08-09T08:28:06Z) - Almost Minimax Optimal Best Arm Identification in Piecewise Stationary Linear Bandits [55.957560311008926]
そこで本研究では,各文脈の平均値によって腕の質を計測するPSLBモデルを提案する。
PS$varepsilon$BAI$+$は、$varepsilon$-optimal armを、確率$ge 1-delta$と最小限のサンプルで識別することが保証される。
論文 参考訳(メタデータ) (2024-10-10T06:15:42Z) - Almost-idempotent quantum channels and approximate $C^*$-algebras [0.03922370499388702]
有限次元の$varepsilon$-$C*$ algebra $A$ is $O(varepsilon)$-同型であることを証明する。
A$ が有限次元 $eta$-idempotent UCP map $Phi$ から来るとき、$O(eta)$-同型とその逆写像は UCP map によって実現される。
論文 参考訳(メタデータ) (2024-05-03T18:59:50Z) - Does Sparsity Help in Learning Misspecified Linear Bandits? [32.920577630673804]
アルゴリズムは$O(varepsilon-sds)$アクションをクエリすることで、$O(varepsilon)$-optimalアクションを得ることができることを示す。
また、サンプルの複雑さに対する上限は、エラーが$O(sdeltavarepsilon)$$$0delta1$を要求する場合、ほぼ厳密であることを示す。
論文 参考訳(メタデータ) (2023-03-29T19:58:39Z) - Query-optimal estimation of unitary channels in diamond distance [3.087385668501741]
単一量子チャネルのプロセストモグラフィーについて考察する。
我々は、ダイヤモンドノルムの未知のユニタリに$varepsilon$-closeのユニタリの古典的な記述を出力する。
論文 参考訳(メタデータ) (2023-02-27T19:00:00Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Low-degree learning and the metric entropy of polynomials [44.99833362998488]
少なくとも$Omega(sqrtvarepsilon)2dlog n leq log mathsfM(mathscrF_n,d,|cdot|_L,varepsilon)は2辺の推定値$c(1-varepsilon)2dlogを満たす。
論文 参考訳(メタデータ) (2022-03-17T23:52:08Z) - Learning low-degree functions from a logarithmic number of random
queries [77.34726150561087]
任意の整数 $ninmathbbN$, $din1,ldots,n$ および任意の $varepsilon,deltain(0,1)$ に対して、有界関数 $f:-1,1nto[-1,1]$ に対して、少なくとも$d$ の次数を学ぶことができる。
論文 参考訳(メタデータ) (2021-09-21T13:19:04Z) - An Optimal Separation of Randomized and Quantum Query Complexity [67.19751155411075]
すべての決定木に対して、与えられた順序 $ellsqrtbinomdell (1+log n)ell-1,$ sum to at least $cellsqrtbinomdell (1+log n)ell-1,$ where $n$ is the number of variables, $d$ is the tree depth, $c>0$ is a absolute constant。
論文 参考訳(メタデータ) (2020-08-24T06:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。