論文の概要: Quantum state tomography via non-convex Riemannian gradient descent
- arxiv url: http://arxiv.org/abs/2210.04717v1
- Date: Mon, 10 Oct 2022 14:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 01:10:30.812048
- Title: Quantum state tomography via non-convex Riemannian gradient descent
- Title(参考訳): 非凸リーマン勾配勾配による量子状態トモグラフィ
- Authors: Ming-Chien Hsu, En-Jui Kuo, Wei-Hsuan Yu, Jian-Feng Cai, and Min-Hsiu
Hsieh
- Abstract要約: 本研究では,kappa$のスケール依存性を改善する量子状態トモグラフィースキームを導出する。
この改良は、非多様体勾配(RGD)アルゴリズムの適用によるものである。
超高速収束とほぼ最適誤差境界の理論的結果は数値的な結果と相関する。
- 参考スコア(独自算出の注目度): 13.100184125419691
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recovery of an unknown density matrix of large size requires huge
computational resources. The recent Factored Gradient Descent (FGD) algorithm
and its variants achieved state-of-the-art performance since they could
mitigate the dimensionality barrier by utilizing some of the underlying
structures of the density matrix. Despite their theoretical guarantee of a
linear convergence rate, the convergence in practical scenarios is still slow
because the contracting factor of the FGD algorithms depends on the condition
number $\kappa$ of the ground truth state. Consequently, the total number of
iterations can be as large as $O(\sqrt{\kappa}\ln(\frac{1}{\varepsilon}))$ to
achieve the estimation error $\varepsilon$. In this work, we derive a quantum
state tomography scheme that improves the dependence on $\kappa$ to the
logarithmic scale; namely, our algorithm could achieve the approximation error
$\varepsilon$ in $O(\ln(\frac{1}{\kappa\varepsilon}))$ steps. The improvement
comes from the application of the non-convex Riemannian gradient descent (RGD).
The contracting factor in our approach is thus a universal constant that is
independent of the given state. Our theoretical results of extremely fast
convergence and nearly optimal error bounds are corroborated by numerical
results.
- Abstract(参考訳): 大きなサイズの未知の密度行列の復元には膨大な計算資源が必要である。
最近のFGD(Facted Gradient Descent)アルゴリズムとその変種は、密度行列の基盤構造を利用して次元障壁を緩和できるため、最先端の性能を達成した。
線形収束率の理論的な保証にもかかわらず、FGDアルゴリズムの収縮係数は基底真理状態の条件数$\kappa$に依存するため、実際的なシナリオでの収束は依然として遅い。
したがって、合計の反復数は$O(\sqrt{\kappa}\ln(\frac{1}{\varepsilon})$で、推定誤差を$\varepsilon$にすることができる。
本研究では, 量子状態トモグラフィー法を導出し, 対数スケールへの$\kappa$への依存度を向上させること, すなわち, 近似誤差$\varepsilon$ in $o(\ln(\frac{1}{\kappa\varepsilon})$ step を実現することができた。
この改善は、非凸リーマン勾配勾配(RGD)の適用によるものである。
したがって、我々のアプローチの収縮因子は与えられた状態とは独立な普遍定数である。
超高速収束とほぼ最適誤差境界の理論的結果は数値的な結果と相関する。
関連論文リスト
- Gradient Compressed Sensing: A Query-Efficient Gradient Estimator for High-Dimensional Zeroth-Order Optimization [48.84672493756553]
我々は,1ステップあたり$Obig(slogfrac dsbig)$クエリのみを使用する勾配のクエリ効率と精度の高い推定器を提案する。
Indyk-Price-Woodruff (IPW) アルゴリズムを線形測定から非線形関数への圧縮センシングにおいて一般化した。
論文 参考訳(メタデータ) (2024-05-27T03:52:53Z) - Revisiting the Last-Iterate Convergence of Stochastic Gradient Methods [25.831462008050387]
グラディエント・Descent(SGD)アルゴリズムは、実際の性能が良く、理論的な理解が欠如していることから、人々の関心を喚起している。
有限収束がより広い合成最適化や非ユークリッドノルムに証明可能な拡張が可能かどうかはまだ不明である。
論文 参考訳(メタデータ) (2023-12-13T21:41:06Z) - Convergence of Adam Under Relaxed Assumptions [72.24779199744954]
我々は、アダムがより現実的な条件下で、$O(epsilon-4)$勾配複雑性で$epsilon$-定常点に収束することを示している。
また、Adamの分散還元版を$O(epsilon-3)$の加速勾配複雑性で提案する。
論文 参考訳(メタデータ) (2023-04-27T06:27:37Z) - On the Last Iterate Convergence of Momentum Methods [32.60494006038902]
我々は、任意の一定の運動量係数に対して、最後の反復が誤差に苦しむリプシッツおよび凸函数が存在することを初めて証明する。
凸関数と滑らかな関数の設定では、新しいSGDMアルゴリズムが自動的に$O(fraclog TT)$のレートで収束することを示しています。
論文 参考訳(メタデータ) (2021-02-13T21:16:16Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Hybrid Stochastic-Deterministic Minibatch Proximal Gradient:
Less-Than-Single-Pass Optimization with Nearly Optimal Generalization [83.80460802169999]
HSDMPGは、学習モデル上で過大なエラーの順序である$mathcalObig(1/sttnbig)$を達成可能であることを示す。
損失係数について、HSDMPGは学習モデル上で過大なエラーの順序である$mathcalObig(1/sttnbig)$を達成できることを示す。
論文 参考訳(メタデータ) (2020-09-18T02:18:44Z) - On the Almost Sure Convergence of Stochastic Gradient Descent in
Non-Convex Problems [75.58134963501094]
本稿では,勾配降下(SGD)の軌跡を解析する。
我々はSGDが厳格なステップサイズポリシーのために1ドルでサドルポイント/マニフォールドを避けることを示す。
論文 参考訳(メタデータ) (2020-06-19T14:11:26Z) - Differentially Quantized Gradient Methods [53.3186247068836]
微分量子化グラディエントDescence (DQ-GD) が$maxsigma_mathrmGD, rhon 2-R$の線形収縮係数を得ることを示す。
あるクラス内のアルゴリズムは$maxsigma_mathrmGD, 2-R$よりも早く収束できない。
論文 参考訳(メタデータ) (2020-02-06T20:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。