論文の概要: On Translation-Invariant Matrix Product States and advances in MPS
representations of the $W$-state
- arxiv url: http://arxiv.org/abs/2306.16456v2
- Date: Thu, 31 Aug 2023 11:33:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 19:51:52.465128
- Title: On Translation-Invariant Matrix Product States and advances in MPS
representations of the $W$-state
- Title(参考訳): 翻訳不変行列積状態と$W$状態のMPS表現の進歩について
- Authors: Petr Klimov, Richik Sengupta and Jacob Biamonte
- Abstract要約: 本稿では, TI 状態のクラスで TI MPS 表現を構築するための新しい手法を提案する。
我々はそれらの結合次元の観点からそれらの最適性を研究する。
任意状態に対して$d(psi)$を探索するための決定論的アルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work is devoted to the study Translation-Invariant (TI) Matrix Product
State (MPS) representations of quantum states with periodic boundary conditions
(PBC). We pursue two directions: we introduce new methods for constructing TI
MPS representations of a certain class of TI states and study their optimality
in terms of their bond dimension. We pay particular attention to the $n$-party
$W$-state and construct a TI MPS representation of bond dimension $\left
\lfloor \dfrac{n}{2} \right \rfloor +1$ for it. We further study properties of
this class and show that we can can always achieve a bond dimension of $n$ for
TI MPS representation of states in this class. In the framework of studying
optimality of TI MPS representations with PBC, we study the optimal bond
dimension $d(\psi)$ for a given state $\psi$. In particular we introduce a
deterministic algorithm for the search of $d(\psi)$ for an arbitary state.
Using numerical methods, we verify the optimality of our previous construction
for the $n$-party $W$-state for small $n$.
- Abstract(参考訳): この研究は、周期境界条件 (PBC) を持つ量子状態の変換-不変 (TI) 行列積状態 (MPS) 表現の研究に費やされている。
我々は,ある種のTI状態のTI MPS表現を構築するための新しい手法を導入し,それらの結合次元の観点からそれらの最適性を研究する。
特に$n$-party $W$-state に注目し、結合次元の TI MPS 表現を$\left \lfloor \dfrac{n}{2} \right \rfloor +1$ で構成する。
このクラスの性質をさらに研究し、このクラスの状態の TI MPS 表現に対して、常に$n$ の結合次元を達成できることを示す。
PBC を用いて TI MPS 表現の最適性を研究する枠組みにおいて、与えられた状態に対する最適結合次元 $d(\psi)$ について研究する。
特に、任意状態に対して$d(\psi)$を探索するための決定論的アルゴリズムを導入する。
数値的手法を用いて、$n$-party $W$-state for small $n$に対する以前の構成の最適性を検証する。
関連論文リスト
- Dicke states as matrix product states [0.0]
我々は、最小結合次元$chi=k+1$のディック状態の正確な正準行列積状態(MPS)表現を導出する。
また、高スピンおよびキュディット・ディック状態に対する最小結合次元を持つ正確な正準MPS表現も見出す。
論文 参考訳(メタデータ) (2024-08-08T19:03:57Z) - Quantum mutual information redistribution by Number Partitioning
algorithm [9.818805141128935]
両部ユニタリ変換 $U_AB$ は、三部形式純状態 $|psirangle_ABC$ において量子相互情報を、d_Atimes d_Btimes d_C$ 次元ヒルベルト空間において、三部形式純状態 $|psirangle_ABC$ で再分配することを示す。
我々の近似アルゴリズムは、高次元の三部分量子状態に対して量子相互情報の再分配を実装するための実用的なプロトコルを提供する。
論文 参考訳(メタデータ) (2023-06-17T09:00:11Z) - Reinforcement Learning in a Birth and Death Process: Breaking the
Dependence on the State Space [0.0]
我々は、出生・死亡構造を有するMDPにおける未報告の強化学習の後悔を再考する。
本研究の結果から,従来の学習アルゴリズム sc Ucrl2 のやや遅れたバージョンに対する後悔は,実際には $tildemathcalO(sqrtEAT)$ で表される。
論文 参考訳(メタデータ) (2023-02-21T13:28:37Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Reward-Mixing MDPs with a Few Latent Contexts are Learnable [75.17357040707347]
報酬混合マルコフ決定過程(RMMDP)におけるエピソード強化学習の検討
我々のゴールは、そのようなモデルにおける時間段階の累積報酬をほぼ最大化する、ほぼ最適に近いポリシーを学ぶことである。
論文 参考訳(メタデータ) (2022-10-05T22:52:00Z) - Horizon-Free Reinforcement Learning in Polynomial Time: the Power of
Stationary Policies [88.75843804630772]
我々は既存の境界に対して,$Oleft(mathrmpoly(S,A,log K)sqrtKright)を後悔するアルゴリズムを設計する。
この結果は、定常政策の近似力、安定性、および濃度特性を確立する新しい構造補題の列に依存している。
論文 参考訳(メタデータ) (2022-03-24T08:14:12Z) - A Post-Quantum Associative Memory [5.2178708158547025]
連想記憶(Associative memory)は、その部分的開示によって完全に検索できる情報を記憶する装置である。
本稿では, 一般確率論の枠組みの中で, 連想記憶のおもちゃモデルとその限界について検討する。
論文 参考訳(メタデータ) (2022-01-28T18:10:19Z) - Testing matrix product states [5.225550006603552]
未知の状態$|psirangle$が特性試験モデルにおける行列積状態(MPS)かどうかをテストする。
MPS(英: MPS)は、量子多体系の研究で生じる物理関連量子状態のクラスである。
論文 参考訳(メタデータ) (2022-01-05T21:10:50Z) - Nearly Optimal Regret for Learning Adversarial MDPs with Linear Function
Approximation [92.3161051419884]
我々は、敵対的な報酬と完全な情報フィードバックで有限正方体エピソディックマルコフ決定プロセスのための強化学習を研究します。
我々は、$tildeO(dHsqrtT)$ regretを達成できることを示し、$H$はエピソードの長さである。
また、対数因子までの$tildeOmega(dHsqrtT)$の値が一致することを証明する。
論文 参考訳(メタデータ) (2021-02-17T18:54:08Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Provably Efficient Reinforcement Learning for Discounted MDPs with
Feature Mapping [99.59319332864129]
本稿では,割引決定(MDP)のための強化学習について検討する。
本稿では,特徴写像を利用した新しいアルゴリズムを提案し,$tilde O(dsqrtT/ (1-gamma)2)$ regretを求める。
以上の結果から,提案した強化学習アルゴリズムは,最大1-γ-0.5$の係数でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-23T17:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。