論文の概要: Alternating minimization for computing doubly minimized Petz Renyi mutual information
- arxiv url: http://arxiv.org/abs/2507.05205v1
- Date: Mon, 07 Jul 2025 17:11:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.532448
- Title: Alternating minimization for computing doubly minimized Petz Renyi mutual information
- Title(参考訳): Petz Renyi相互情報の2倍最小化のための交代最小化
- Authors: Laura Burri,
- Abstract要約: 2倍に最小化された$alpha$のPetz Renyi相互情報(PRMI)は、固定二部量子状態$rho_AB$の$alpha$のPetz分散の最小化として定義される。
現在までに、この測度に対する閉形式表現は発見されておらず、計算のための数値法の開発が必要とされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The doubly minimized Petz Renyi mutual information (PRMI) of order $\alpha$ is defined as the minimization of the Petz divergence of order $\alpha$ of a fixed bipartite quantum state $\rho_{AB}$ relative to any product state $\sigma_A\otimes \tau_B$. To date, no closed-form expression for this measure has been found, necessitating the development of numerical methods for its computation. In this work, we show that alternating minimization over $\sigma_A$ and $\tau_B$ asymptotically converges to the doubly minimized PRMI for any $\alpha\in (\frac{1}{2},1)\cup (1,2]$, by proving linear convergence of the objective function values with respect to the number of iterations for $\alpha\in (1,2]$ and sublinear convergence for $\alpha\in (\frac{1}{2},1)$. Previous studies have only addressed the specific case where $\rho_{AB}$ is a classical-classical state, while our results hold for any quantum state $\rho_{AB}$.
- Abstract(参考訳): 2倍に最小化された$\alpha$のPetz Renyi相互情報(PRMI)は、任意の積状態$\sigma_A\otimes \tau_B$に対する固定二部量子状態$\rho_{AB}$のPetz分散の最小化として定義される。
現在までに、この測度に対する閉形式表現は発見されておらず、計算のための数値法の開発が必要とされる。
この研究において、$\sigma_A$ と $\tau_B$ の交互最小化は、任意の $\alpha\in (\frac{1}{2},1)\cup (1,2]$ に対して、$\alpha\in (1,2]$ の反復数に対する目的関数値の線型収束と $\alpha\in (\frac{1}{2},1)$ の部分線型収束を証明することにより、二重最小化PRMI に漸近的に収束することを示す。
これまでの研究では、$\rho_{AB}$が古典的古典状態である場合のみに対処し、我々の結果は任意の量子状態$\rho_{AB}$に対して成り立つ。
関連論文リスト
- A Proximal Modified Quasi-Newton Method for Nonsmooth Regularized Optimization [0.7373617024876725]
Lipschitz-of-$nabla f$
$mathcalS_k|p$。
$mathcalS_k|p$。
$nabla f$.
$mathcalS_k|p$。
論文 参考訳(メタデータ) (2024-09-28T18:16:32Z) - Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - A note on $L^1$-Convergence of the Empiric Minimizer for unbounded
functions with fast growth [0.0]
V : mathbbRd to mathbbR$ coercive に対して、経験的最小値の$L1$-distance の収束率について検討する。
一般に、高速な成長を持つ非有界函数に対しては、収束率は上述の$a_n n-1/q$で制限され、$q$は潜在確率変数の次元である。
論文 参考訳(メタデータ) (2023-03-08T08:46:13Z) - Average R\'{e}nyi Entropy of a Subsystem in Random Pure State [0.0]
我々は$widetildeS_alpha (m,n)$から導かれる量子情報の$ln m$-dependenceをプロットする。
情報のほぼ消滅した領域は$alpha$の増加とともに短くなり、最終的には$alpha rightarrow infty$の極限で消える。
論文 参考訳(メタデータ) (2023-01-22T08:08:51Z) - Nearly Horizon-Free Offline Reinforcement Learning [97.36751930393245]
S$状態、$A$アクション、計画的地平$H$で、エピソードな時間同質なMarkov決定プロセスに関するオフライン強化学習を再考する。
経験的MDPを用いた評価と計画のための,約$H$自由なサンプル複雑性境界の最初の集合を得る。
論文 参考訳(メタデータ) (2021-03-25T18:52:17Z) - Convergence Rate of the (1+1)-Evolution Strategy with Success-Based
Step-Size Adaptation on Convex Quadratic Functions [20.666734673282498]
1+1)-進化戦略(ES)と成功に基づくステップサイズ適応を一般凸二次関数で解析する。
1+1)-ES の収束速度は、一般凸二次函数上で明示的に厳密に導かれる。
論文 参考訳(メタデータ) (2021-03-02T09:03:44Z) - Improved Sample Complexity for Incremental Autonomous Exploration in
MDPs [132.88757893161699]
我々は $epsilon$-optimal 目標条件付きポリシーのセットを学び、$ L$ ステップ内で段階的に到達可能なすべての状態を達成します。
DisCoは、コストに敏感な最短経路問題に対して$epsilon/c_min$-optimalポリシーを返すことができる最初のアルゴリズムです。
論文 参考訳(メタデータ) (2020-12-29T14:06:09Z) - $Q$-learning with Logarithmic Regret [60.24952657636464]
楽観的な$Q$は$mathcalOleft(fracSAcdot mathrmpolyleft(Hright)Delta_minlogleft(SATright)right)$ cumulative regret bound, where $S$ is the number of state, $A$ is the number of action, $H$ is the planning horizon, $T$ is the total number of steps, $Delta_min$ is the least sub-Optitimality gap。
論文 参考訳(メタデータ) (2020-06-16T13:01:33Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z) - On the Complexity of Minimizing Convex Finite Sums Without Using the
Indices of the Individual Functions [62.01594253618911]
有限和の有限ノイズ構造を利用して、大域オラクルモデルの下での一致する$O(n2)$-upper境界を導出する。
同様のアプローチを踏襲したSVRGの新規な適応法を提案し、これはオラクルと互換性があり、$tildeO(n2+nsqrtL/mu)log (1/epsilon)$と$O(nsqrtL/epsilon)$, for $mu>0$と$mu=0$の複雑さ境界を実現する。
論文 参考訳(メタデータ) (2020-02-09T03:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。