論文の概要: Maximum logarithmic derivative bound on quantum state estimation as a
dual of the Holevo bound
- arxiv url: http://arxiv.org/abs/2106.06294v1
- Date: Fri, 11 Jun 2021 10:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-26 23:40:18.551727
- Title: Maximum logarithmic derivative bound on quantum state estimation as a
dual of the Holevo bound
- Title(参考訳): 量子状態推定に束縛された最大対数微分をホレヴォ境界の双対とする
- Authors: Koichi Yamagata
- Abstract要約: 量子推定理論において、ホレヴォ境界は非バイアス推定器の共分散の重み付きトレースの下界として知られている。
最大対数微分境界は、$d+1$次元モデルが SLD 空間の $d+1$次元 $mathcalD$不変量を持つとき、明示的な解を持つことを示す。
この明示的な解は、鈴木によって与えられる2次元ヒルベルト空間に対する解の一般化である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In quantum estimation theory, the Holevo bound is known as a lower bound of
weighed traces of covariances of unbiased estimators. The Holevo bound is
defined by a solution of a minimization problem, and in general, explicit
solution is not known. When the dimension of Hilbert space is two and the
number of parameters is two, a explicit form of the Holevo bound was given by
Suzuki. In this paper, we focus on a logarithmic derivative lies between the
symmetric logarithmic derivative (SLD) and the right logarithmic derivative
(RLD) parameterized by $\beta\in[0,1]$ to obtain lower bounds of weighted trace
of covariance of unbiased estimator. We introduce the maximum logarithmic
derivative bound as the maximum of bounds with respect to $\beta$. We show that
all monotone metrics induce lower bounds, and the maximum logarithmic
derivative bound is the largest bound among them. We show that the maximum
logarithmic derivative bound has explicit solution when the $d$ dimensional
model has $d+1$ dimensional $\mathcal{D}$ invariant extension of the SLD
tangent space. Furthermore, when $d=2$, we show that the maximization problem
to define the maximum logarithmic derivative bound is the Lagrangian duality of
the minimization problem to define Holevo bound, and is the same as the Holevo
bound. This explicit solution is a generalization of the solution for a two
dimensional Hilbert space given by Suzuki. We give also examples of families of
quantum states to which our theory can be applied not only for two dimensional
Hilbert spaces.
- Abstract(参考訳): 量子推定理論において、ホレヴォ境界は非バイアス推定器の共分散の重み付きトレースの下界として知られている。
ホレヴォ境界は最小化問題の解によって定義され、一般に明示的な解は知られていない。
ヒルベルト空間の次元が 2 でパラメータの数が 2 であるとき、ホレヴォ境界の明示的な形式が鈴木によって与えられた。
本稿では, 対称対数微分(SLD)と, $\beta\in[0,1]$でパラメータ化された右対数微分(RLD)との間にある対数微分に焦点をあて, 非バイアス推定器の共分散の重み付きトレースの下限を求める。
最大対数微分は、$\beta$ に対する有界の最大値として導入する。
全ての単調計量は下界を誘導し、最大対数微分境界はそれらの最大境界であることを示した。
最大対数微分境界は、$d+1$ dimensional $\mathcal{D}$ invariant extension of the SLD tangent space であるときに明らかな解を持つことを示す。
さらに、$d=2$ の場合、最大対数微分境界を定義するための最大化問題は、最小化問題のラグランジュ双対性であり、ホールボ境界を定義することと同一であることを示す。
この明示解は、スズキによって与えられる2次元ヒルベルト空間の解の一般化である。
また、2次元ヒルベルト空間に限らず、我々の理論を適用できる量子状態の族を例に挙げる。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - The Mutual Information In The Vicinity of Capacity-Achieving Input Distributions [6.675805308519987]
距離が$Pi_mathcalA$までの相互情報の最も遅い減少の正確な特徴は、$Pi_mathcalA$の小さな地区で決定される。
古典量子チャネルの結果は、二次境界に対して分離出力ヒルベルト空間仮定と、正確な特徴づけのために有限次元出力ヒルベルト空間仮定の下で確立される。
論文 参考訳(メタデータ) (2023-04-27T14:27:08Z) - Determining the validity of cumulant expansions for central spin models [0.0]
多対一接続を持つモデルでは、平均場理論が正確な多粒子$Ntoinfty$極限を捉えることが広く期待されている。
ここでは、これは必ずしもそうではないことを示す。
高次の累積展開が正しい極限を回復したとしても、誤差はN$で単調ではなく平均場理論を超えうる。
論文 参考訳(メタデータ) (2023-03-08T07:13:49Z) - Tight Exponential Analysis for Smoothing the Max-Relative Entropy and
for Quantum Privacy Amplification [56.61325554836984]
最大相対エントロピーとその滑らかなバージョンは、量子情報理論の基本的な道具である。
我々は、精製された距離に基づいて最大相対エントロピーを滑らかにする量子状態の小さな変化の崩壊の正確な指数を導出する。
論文 参考訳(メタデータ) (2021-11-01T16:35:41Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - Error Estimates for the Variational Training of Neural Networks with
Boundary Penalty [0.0]
空間$H1(Omega)$上の二次エネルギーに対するリッツ法による誤差の推定値を確立する。
境界ペナルティ法で処理されるディリクレ境界値に対しては,特に注意が払われる。
論文 参考訳(メタデータ) (2021-03-01T13:55:59Z) - Nonparametric approximation of conditional expectation operators [0.3655021726150368]
最小の仮定の下で、$[Pf](x) := mathbbE[f(Y) mid X = x ]$ で定義される$L2$-operatorの近似について検討する。
我々は、再生されたカーネル空間上で作用するヒルベルト・シュミット作用素により、作用素ノルムにおいて$P$が任意に適切に近似できることを証明した。
論文 参考訳(メタデータ) (2020-12-23T19:06:12Z) - A Dynamical Central Limit Theorem for Shallow Neural Networks [48.66103132697071]
平均極限の周りのゆらぎは、トレーニングを通して平均正方形に有界であることを証明する。
平均場ダイナミクスがトレーニングデータを補間する尺度に収束すると、最終的にCLTスケーリングにおいて偏差が消えることを示す。
論文 参考訳(メタデータ) (2020-08-21T18:00:50Z) - Inexact and Stochastic Generalized Conditional Gradient with Augmented
Lagrangian and Proximal Step [2.0196229393131726]
我々は著者の以前の論文で開発されたCGALPアルゴリズムの不正確さとバージョンを分析した。
これにより、いくつかの勾配、項、および/または線形最小化オラクルを不正確な方法で計算することができる。
ラグランジアンのアフィン制約の最適性と実現可能性への収束を示す。
論文 参考訳(メタデータ) (2020-05-11T14:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。