論文の概要: Area law for the maximally mixed ground state in degenerate 1D gapped
systems
- arxiv url: http://arxiv.org/abs/2310.19028v1
- Date: Sun, 29 Oct 2023 14:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 14:49:26.635786
- Title: Area law for the maximally mixed ground state in degenerate 1D gapped
systems
- Title(参考訳): 縮退1次元ギャップ系における最大混合基底状態の領域法則
- Authors: Itai Arad, Raz Firanko, Rahul Jain
- Abstract要約: 我々は、最大混合状態$Omega$に対する対数補正を伴う領域法則を、1Dギャップ化された局所ハミルトニアン$H$の(縮退した)基底空間で示す。
また、$mathrmI(L:R)_Omega leq O(log |L|)$という形の相互情報に対して面積法則を得る。
- 参考スコア(独自算出の注目度): 5.088702935364181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show an area law with logarithmic correction for the maximally mixed state
$\Omega$ in the (degenerate) ground space of a 1D gapped local Hamiltonian $H$,
which is independent of the underlying ground space degeneracy. Formally, for
$\varepsilon>0$ and a bi-partition $L\cup L^c$ of the 1D lattice, we show that
$$\mathrm{I}^{\varepsilon}_{\max}(L:L^c)_{\Omega} \leq
O(\log(|L|)+\log(1/\varepsilon)),$$
where $|L|$ represents the number of qudits in $L$ and
$\mathrm{I}^{\epsilon}_{\max}(L:L^c)_{\Omega}$ represents the $\varepsilon$-
'smoothed maximum mutual information' with respect to the $L:L^c$ partition in
$\Omega$. As a corollary, we get an area law for the mutual information of the
form $\mathrm{I}(L:R)_\Omega \leq O(\log |L|)$. In addition, we show that
$\Omega$ can be approximated up to an $\varepsilon$ in trace norm with a state
of Schmidt rank of at most $\mathrm{poly}(|L|/\varepsilon)$.
- Abstract(参考訳): 1次元ギャップを持つ局所ハミルトン空間の(縮退した)基底空間において、最大混合状態$\Omega$に対して対数的補正を施した領域法則を示す。
形式的には、$\varepsilon>0$と$L\cup L^c$の1D格子に対して、$$\mathrm{I}^{\varepsilon}_{\max}(L:L^c)_{\Omega} \leq O(\log(|L|)+\log(1/\varepsilon))に対して$$|L|$が$L$のクォーディット数を表し、$\mathrm{I}^{\epsilon}_{\max}(L:L^c)_{\Omega}$が$\varepsilon$'smoothed maximum mutual information'を表す。
corollary として、$\mathrm{I}(L:R)_\Omega \leq O(\log |L|)$ という形の相互情報に対して面積法則を得る。
さらに、$\Omega$は、最大で$\mathrm{poly}(|L|/\varepsilon)$のSchmidtランクを持つトレースノルムで$\varepsilon$まで近似できることを示す。
関連論文リスト
- Sparsifying Suprema of Gaussian Processes [6.638504164134713]
我々は、$O_varepsilon(1)$-size subset $S subseteq T$ と、S$ における実値 $c_s_s の集合が存在することを示す。
また、中心となるガウス過程の過度にスペーシフィケーション結果を用いて、有界な幾何学的幅の凸集合に対するスペーシフィケーション補題を与える。
論文 参考訳(メタデータ) (2024-11-22T01:43:58Z) - The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - $\ell_p$-Regression in the Arbitrary Partition Model of Communication [59.89387020011663]
コーディネータモデルにおける分散$ell_p$-regression問題のランダム化通信複雑性について考察する。
p = 2$、すなわち最小二乗回帰の場合、$tildeTheta(sd2 + sd/epsilon)$ bitsの最初の最適境界を与える。
p in (1,2)$ に対して、$tildeO(sd2/epsilon + sd/mathrmpoly(epsilon)$ upper bound を得る。
論文 参考訳(メタデータ) (2023-07-11T08:51:53Z) - $\boldsymbol{\alpha_{>}(\epsilon) = \alpha_{<}(\epsilon)}$ For The
Margolus-Levitin Quantum Speed Limit Bound [0.0]
私は$alpha_>(epsilon)$が実際に$alpha_(epsilon)$に等しいことを示す。
また、計算における数値安定性の問題として$alpha_>(epsilon)$を指摘します。
論文 参考訳(メタデータ) (2023-05-17T10:07:31Z) - Krylov Methods are (nearly) Optimal for Low-Rank Approximation [8.017116107657206]
任意のアルゴリズムが$Omegaleft(log(n)/varepsilon1/2right)$ matrix-vector productを必要とし、Krylov法で得られる上限値と正確に一致することを示す。
我々の下位境界はOpen Question 1WooWoo14で、Spectral LRAのアルゴリズムの進歩の欠如の証拠を提供している。
論文 参考訳(メタデータ) (2023-04-06T16:15:19Z) - Sparse Dimensionality Reduction Revisited [13.170012290527017]
スパースジョンソン・リンデンシュトラウス変換は次元還元の中心的な手法の一つである。
疎な埋め込みを再検討し、下界の抜け穴を同定する。
また,最適埋め込み次元に対する最適半空間埋め込みの空隙性も改善する。
論文 参考訳(メタデータ) (2023-02-13T08:01:25Z) - Low-Rank Approximation with $1/\epsilon^{1/3}$ Matrix-Vector Products [58.05771390012827]
我々は、任意のSchatten-$p$ノルムの下で、低ランク近似のためのクリロフ部分空間に基づく反復法について研究する。
我々の主な成果は、$tildeO(k/sqrtepsilon)$ matrix-vector productのみを使用するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-10T16:10:41Z) - Learning low-degree functions from a logarithmic number of random
queries [77.34726150561087]
任意の整数 $ninmathbbN$, $din1,ldots,n$ および任意の $varepsilon,deltain(0,1)$ に対して、有界関数 $f:-1,1nto[-1,1]$ に対して、少なくとも$d$ の次数を学ぶことができる。
論文 参考訳(メタデータ) (2021-09-21T13:19:04Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Approximate Maximum Halfspace Discrepancy [6.35821487778241]
範囲空間 $(X, MathcalH_d)$ ここで、$X の部分集合 mathbbRd$ と $mathcalH_d$ は、$d$ハーフスペースで定義される範囲の集合である。
数学 H_d$ における各半空間 $h に対して、$Phi(h)$ は、赤の分数と青の点の分数の差を測る関数 $Phi(h)$ を定義する。
論文 参考訳(メタデータ) (2021-06-25T19:14:45Z) - Average Case Column Subset Selection for Entrywise $\ell_1$-Norm Loss [76.02734481158458]
最悪の場合、行列に対する良いランク-$k$近似を得るには、任意に大きい$nOmega(1)$列数が必要であることが知られている。
最小かつ現実的な分布設定では、ほぼ線形な実行時間を持つ$(k/epsilon)$-approximationとpoly$(k/epsilon)+O(klog n)$ columnsが得られる。
これは、エントリワイズで$(k/epsilon)$-approximationを達成するための任意の種類の最初のアルゴリズムである
論文 参考訳(メタデータ) (2020-04-16T22:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。