論文の概要: The block-coherence measures and the coherence measures based on
positive-operator-valued measures
- arxiv url: http://arxiv.org/abs/2108.04405v1
- Date: Tue, 10 Aug 2021 02:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-18 21:35:28.256902
- Title: The block-coherence measures and the coherence measures based on
positive-operator-valued measures
- Title(参考訳): 正効的評価尺度に基づくブロックコヒーレンス対策とコヒーレンス対策
- Authors: Liangxue Fu, Fengli Yan, Ting Gao
- Abstract要約: ブロックコヒーレンスに関する資源理論に基づくブロックコヒーレンス対策と,正の操作評価尺度(POVM)に基づくコヒーレンス対策について検討する。
ブロックコヒーレンス対策からPOVMベースのコヒーレンス対策を構築するための既知のスキームを用いて,POVMベースのコヒーレンス対策を提案し,最大POVM非一貫性演算の下でのワンショットブロックコヒーレンスコストを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We mainly study the block-coherence measures based on resource theory of
block-coherence and the coherence measures based on positive-operator-valued
measures (POVM). Several block-coherence measures including a block-coherence
measure based on maximum relative entropy, the one-shot block coherence cost
under the maximally block-incoherent operations, and a coherence measure based
on coherent rank have been introduced and the relationships between these
block-coherence measures have been obtained. We also give the definition of the
maximally block-coherent state and describe the deterministic coherence
dilution process by constructing block-incoherent operations. Based on the POVM
coherence resource theory, we propose a POVM-based coherence measure by using
the known scheme of building POVM-based coherence measures from block-coherence
measures, and the one-shot block coherence cost under the maximally
POVM-incoherent operations. The relationship between the POVM-based coherence
measure and the one-shot block coherence cost under the maximally
POVM-incoherent operations is analysed.
- Abstract(参考訳): 本稿では,ブロックコヒーレンスに関する資源理論に基づくブロックコヒーレンス対策と,正の操作評価尺度(POVM)に基づくコヒーレンス対策を主に研究する。
最大相対エントロピーに基づくブロックコヒーレンス測度、最大ブロックコヒーレンス操作によるワンショットブロックコヒーレンスコスト、コヒーレンスランクに基づくコヒーレンス測度などいくつかのブロックコヒーレンス測度が導入され、これらのブロックコヒーレンス測度との関係が得られた。
また,最大ブロックコヒーレント状態の定義を与え,ブロック非コヒーレント演算を構築し,決定論的コヒーレンス希釈過程を記述する。
povmコヒーレンス資源理論に基づき、ブロックコヒーレンス測度からpovmベースのコヒーレンス測度を構築する既知のスキームと、最大povm非一貫性操作下でのワンショットブロックコヒーレンスコストを用いて、povmベースのコヒーレンス測度を提案する。
最大POVM非一貫性演算におけるPOVMベースのコヒーレンス尺度とワンショットブロックコヒーレンスコストの関係を解析する。
関連論文リスト
- Provably Efficient UCB-type Algorithms For Learning Predictive State
Representations [55.00359893021461]
逐次決定問題は、予測状態表現(PSR)によってモデル化された低ランク構造が認められる場合、統計的に学習可能である
本稿では,推定モデルと実モデル間の全変動距離を上限とする新しいボーナス項を特徴とする,PSRに対する最初のUCB型アプローチを提案する。
PSRに対する既存のアプローチとは対照的に、UCB型アルゴリズムは計算的トラクタビリティ、最優先の準最適ポリシー、モデルの精度が保証される。
論文 参考訳(メタデータ) (2023-07-01T18:35:21Z) - Bounds on positive operator-valued measure based coherence of
superposition [4.536603451832357]
POVMに基づくコヒーレンス対策は、コヒーレンスの相対エントロピーに関して提案されている。
我々は、任意の与えられた重畳された純粋状態のこれらのPOVMベースのコヒーレンスにおける下界と上界を解析的に導出する。
我々の結果は、重畳状態の量子コヒーレンスの範囲を推定するために用いられる。
論文 参考訳(メタデータ) (2023-05-11T10:31:04Z) - Nearly Optimal Latent State Decoding in Block MDPs [74.51224067640717]
エピソードブロック MDP では、意思決定者は少数の潜在状態から生成される豊富な観測やコンテキストにアクセスすることができる。
まず、固定動作ポリシーに基づいて生成されたデータに基づいて、潜時状態復号関数を推定することに興味がある。
次に、報酬のないフレームワークにおいて、最適に近いポリシーを学習する問題について研究する。
論文 参考訳(メタデータ) (2022-08-17T18:49:53Z) - Detecting coherence with respect to general quantum measurements [4.585247747779235]
我々はブロックコヒーレンスとPOVMベースのコヒーレンスを目撃する。
実験におけるブロックコヒーレンスとPOVMに基づくコヒーレンスビクターの実現の可能性について論じる。
我々は、任意のブロック非コヒーレント状態の量子フィッシャー情報が 0 に等しいことを証明した。
論文 参考訳(メタデータ) (2022-08-10T04:04:39Z) - Efficient Reinforcement Learning in Block MDPs: A Model-free
Representation Learning Approach [73.62265030773652]
ブロック構造力学を用いたマルコフ決定過程における効率的な強化学習アルゴリズムであるBRIEEを提案する。
BRIEEは、潜伏状態の発見、探索、搾取を相互にインターリーブし、ほぼ最適な政策を確実に学べる。
我々は、BRIEEが最先端のBlock MDPアルゴリズムであるHOMER RLや、リッチ・オブザーブレーションの組み合わせロック問題に挑戦する経験的ベースラインよりも、より標本効率が高いことを示す。
論文 参考訳(メタデータ) (2022-01-31T19:47:55Z) - A Minimax Learning Approach to Off-Policy Evaluation in Partially
Observable Markov Decision Processes [31.215206208622728]
部分観測可能なマルコフ決定過程(POMDP)におけるオフ・ポリティクス評価(OPE)の検討
既存の手法は、計測されていない共同創設者の存在における大きなバイアスや、連続的あるいは大規模な観測/状態空間の設定における大きなばらつきに悩まされる。
提案手法は,POMDPにおいて,目的ポリシー値と観測データ分布をリンクするブリッジ関数を導入することで,提案手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T15:52:24Z) - Proximal Reinforcement Learning: Efficient Off-Policy Evaluation in
Partially Observed Markov Decision Processes [65.91730154730905]
医療や教育などの観察データへのオフライン強化学習の適用においては、観察された行動は観測されていない要因に影響される可能性があるという一般的な懸念がある。
ここでは、部分的に観察されたマルコフ決定過程(POMDP)における非政治評価を考慮し、この問題に取り組む。
我々は、近位因果推論の枠組みをPOMDP設定に拡張し、識別が可能となる様々な設定を提供する。
論文 参考訳(メタデータ) (2021-10-28T17:46:14Z) - Quantifying dynamical coherence with coherence measures [2.446672595462589]
量子コヒーレンス(quantum coherence)は、絡み合いと同様に、量子情報の基本的な資源である。
非コヒーレントな状態を必要としない非コヒーレントな操作を直接定義することは困難である。
我々は、コヒーレンス測度によって誘導される非コヒーレント演算の代替定義を導入し、動的コヒーレンスを定量化する。
論文 参考訳(メタデータ) (2021-03-31T15:09:33Z) - Identification of Unexpected Decisions in Partially Observable
Monte-Carlo Planning: a Rule-Based Approach [78.05638156687343]
本稿では,POMCPポリシーをトレースを検査して分析する手法を提案する。
提案手法は, 政策行動の局所的特性を探索し, 予期せぬ決定を識別する。
我々は,POMDPの標準ベンチマークであるTigerに対するアプローチと,移動ロボットナビゲーションに関する現実の問題を評価した。
論文 参考訳(メタデータ) (2020-12-23T15:09:28Z) - Coherence measures with respect to general quantum measurements [0.4588028371034407]
まず、ブロックコヒーレンスのための代替フレームワークを構築し、いくつかのブロックコヒーレンス対策を提供する。
次に、POVM測定に関するいくつかのコヒーレンス測度を示し、$l_1$-norm関連POVMコヒーレンス測度に対する予想を証明した。
論文 参考訳(メタデータ) (2020-07-19T04:21:18Z) - Discrete Action On-Policy Learning with Action-Value Critic [72.20609919995086]
離散的な行動空間における強化学習(RL)は、実世界の応用では至るところで行われているが、その複雑さは行動空間次元とともに指数関数的に増大する。
我々は,行動値関数を推定し,相関行動に適用し,これらの評価値を組み合わせて勾配推定の分散を制御する。
これらの取り組みにより、分散制御技術に頼って、関連するRLアルゴリズムを実証的に上回る、新たな離散的なRLアルゴリズムが実現される。
論文 参考訳(メタデータ) (2020-02-10T04:23:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。