論文の概要: Test-measured R\'enyi divergences
- arxiv url: http://arxiv.org/abs/2201.05477v3
- Date: Tue, 5 Jul 2022 15:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 04:31:25.812157
- Title: Test-measured R\'enyi divergences
- Title(参考訳): テスト測定によるr\'enyi divergences
- Authors: Mil\'an Mosonyi and Fumio Hiai
- Abstract要約: 通勤状態(古典的な場合)においても、2ドルのアウトカム測定で得られる正規化量は、一般的にR'enyi $alpha$-divergenceよりも小さくなることを示す。
一般の量子の場合では、上記の「正規化テスト測度」 R'enyi $alpha-divergence は、$alpha1$ が $alpha>1$ の場合と対照的に古典的な R'enyi divergence の量子拡大ではないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One possibility of defining a quantum R\'enyi $\alpha$-divergence of two
quantum states is to optimize the classical R\'enyi $\alpha$-divergence of
their post-measurement probability distributions over all possible measurements
(measured R\'enyi divergence), and maybe regularize these quantities over
multiple copies of the two states (regularized measured R\'enyi
$\alpha$-divergence). A key observation behind the theorem for the strong
converse exponent of asymptotic binary quantum state discrimination is that the
regularized measured R\'enyi $\alpha$-divergence coincides with the sandwiched
R\'enyi $\alpha$-divergence when $\alpha>1$. Moreover, it also follows from the
same theorem that to achieve this, it is sufficient to consider $2$-outcome
measurements (tests) for any number of copies (this is somewhat surprising, as
achieving the measured R\'enyi $\alpha$-divergence for $n$ copies might require
a number of measurement outcomes that diverges in $n$, in general). In view of
this, it seems natural to expect the same when $\alpha<1$; however, we show
that this is not the case. In fact, we show that even for commuting states
(classical case) the regularized quantity attainable using $2$-outcome
measurements is in general strictly smaller than the R\'enyi
$\alpha$-divergence (which is unique in the classical case). In the general
quantum case this shows that the above "regularized test-measured" R\'enyi
$\alpha$-divergence is not even a quantum extension of the classical R\'enyi
divergence when $\alpha<1$, in sharp contrast to the $\alpha>1$ case.
- Abstract(参考訳): 2つの量子状態の量子 R\'enyi $\alpha$-divergence を定義する可能性の1つは、古典的な R\'enyi $\alpha$-divergence をすべての可能な測度(R\'enyi divergence の測定)で測定後の確率分布の最適化し、2つの状態の複数のコピー(正規化された測定値 R\'enyi $\alpha$-divergence )でこれらの量を調整することである。
漸近二項量子状態判別の強い逆指数に対する定理の背景にある重要な観測は、正規化された測定値 R\'enyi $\alpha$-divergence が、$\alpha>1$ のときにサンドイッチされた R\'enyi $\alpha$-divergence と一致することである。
さらに、これを達成するためには、任意の数のコピーに対して2$アウトカムの測定(テスト)を考えるのに十分である(これは、$n$コピーに対して測定されたR\'enyi $\alpha$-divergenceを達成するためには、一般に$n$で発散する多くの測定結果を必要とするため、多少驚きである)。
これを踏まえると、$\alpha<1$ の場合に同じことを期待するのは自然に思えるが、そうではないことを示している。
実際、通勤状態(古典的な場合)においても、2ドルのアウトカムの測定で得られる正規化量は通常、R'enyi $\alpha$-divergence(古典的な場合ではユニーク)よりも厳密に小さいことを示す。
一般の量子の場合では、上記の「正規化テスト測度」 R\'enyi $\alpha$-divergence は、$\alpha<1$ が $\alpha>1$ の場合と対照的に古典的な R\'enyi divergence の量子拡大ではないことを示す。
関連論文リスト
- Rényi divergence-based uniformity guarantees for $k$-universal hash functions [59.90381090395222]
普遍ハッシュ関数は、ソースの出力を有限アルファベット上のランダム文字列にマッピングする。
ミンエントロピーによって測定されるように、ほぼ均一なランダムビットを蒸留することが可能であることを示す。
論文 参考訳(メタデータ) (2024-10-21T19:37:35Z) - On the $O(\frac{\sqrt{d}}{T^{1/4}})$ Convergence Rate of RMSProp and Its Momentum Extension Measured by $\ell_1$ Norm [59.65871549878937]
本稿では、RMSPropとその運動量拡張を考察し、$frac1Tsum_k=1Tの収束速度を確立する。
我々の収束率は、次元$d$を除くすべての係数に関して下界と一致する。
収束率は$frac1Tsum_k=1Tと類似していると考えられる。
論文 参考訳(メタデータ) (2024-02-01T07:21:32Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Detection of Dense Subhypergraphs by Low-Degree Polynomials [72.4451045270967]
ランダムグラフにおける植込み高密度部分グラフの検出は、基本的な統計的および計算上の問題である。
我々は、$Gr(n, n-beta)ハイパーグラフにおいて、植えた$Gr(ngamma, n-alpha)$ subhypergraphの存在を検出することを検討する。
平均値の減少に基づく硬さが不明な微妙な対数密度構造を考えると,この結果はグラフの場合$r=2$で既に新しくなっている。
論文 参考訳(メタデータ) (2023-04-17T10:38:08Z) - A Quantum Algorithm Framework for Discrete Probability Distributions with Applications to Rényi Entropy Estimation [13.810917492304565]
離散確率分布の特性を推定するための統一量子アルゴリズムフレームワークを提案する。
我々のフレームワークは、$alpha$-R'enyi entropy $H_alpha(p)$を、少なくとも2/3$の確率で加算エラー$epsilon$内で推定する。
論文 参考訳(メタデータ) (2022-12-03T08:01:55Z) - Overparametrized linear dimensionality reductions: From projection
pursuit to two-layer neural networks [10.368585938419619]
$mathbbRd$に$n$のデータポイントのクラウドが与えられると、$mathbbRd$の$m$次元部分空間へのすべての射影を考える。
この確率分布の集まりは、$n,d$が大きくなるとどのように見えるか?
この極限の低次元射影として生じる $mathbbRm$ の確率分布の集合の α$ を $mathscrF_m で表すと、$mathscrF_ に新たな内界と外界を確立する。
論文 参考訳(メタデータ) (2022-06-14T00:07:33Z) - Nonasymptotic one-and two-sample tests in high dimension with unknown
covariance structure [0.0]
テストの問題は、$mu が 0 に対して $eta-閉である場合、すなわち $|mu| geq (eta + delta)$ に対して $|mu| leq eta である。
本研究の目的は,I型とII型の両方の誤差を所定のレベルで制御できるように,最小分離距離$の漸近的上下境界を求めることである。
論文 参考訳(メタデータ) (2021-09-01T06:22:53Z) - Optimal Spectral Recovery of a Planted Vector in a Subspace [80.02218763267992]
我々は、$ell_4$ノルムが同じ$ell$ノルムを持つガウスベクトルと異なるプラントベクトル$v$の効率的な推定と検出について研究する。
規則$n rho gg sqrtN$ では、大クラスのスペクトル法(そしてより一般的には、入力の低次法)は、植込みベクトルの検出に失敗する。
論文 参考訳(メタデータ) (2021-05-31T16:10:49Z) - Multivariate mean estimation with direction-dependent accuracy [8.147652597876862]
独立な同一分布観測に基づくランダムベクトルの平均を推定する問題を考察する。
確率ベクトルの1次元辺の分散があまり小さくない全ての方向において、ほぼ最適誤差を持つ推定器を証明した。
論文 参考訳(メタデータ) (2020-10-22T17:52:45Z) - Consistent regression when oblivious outliers overwhelm [8.873449722727026]
我々の研究に先立ち、ガウスの$X$でさえ、$beta*$ の見積子は、このモデルでは一貫性がないことが知られていた。
ほぼ線形なサンプルサイズと逆ポリノミアル不整分率で一貫した推定が可能であることを示す。
ここで研究したモデルは、最初の瞬間さえも持たない重い尾の雑音の分布も捉えている。
論文 参考訳(メタデータ) (2020-09-30T16:21:34Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。