論文の概要: Extraction of Work via a Thermalization Protocol
- arxiv url: http://arxiv.org/abs/2309.04187v1
- Date: Fri, 8 Sep 2023 08:01:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 15:47:01.458903
- Title: Extraction of Work via a Thermalization Protocol
- Title(参考訳): 熱分解プロトコルによる作業の抽出
- Authors: Nicol\`o Piccione, Benedetto Militello, Anna Napoli, Bruno Bellomo
- Abstract要約: 本稿では, 資源システム$R$からバイパーティイトシステム$S$まで, 熱処理プロセスを活用することにより, 資源システム$R$から作業を引き出すことができることを示す。
一般の場合において、プロトコルの理論的境界を見つけ、Rabiモデルに適用すると、作業と効率の十分な抽出が発生することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This extended abstract contains an outline of the work reported at the
conference IQIS2018. We show that it is possible to exploit a thermalization
process to extract work from a resource system $R$ to a bipartite system $S$.
To do this, we propose a simple protocol in a general setting in the presence
of a single bath at temperature $T$ and then examine it when $S$ is described
by the quantum Rabi model at $T=0$. We find the theoretical bounds of the
protocol in the general case and we show that when applied to the Rabi model it
gives rise to a satisfactory extraction of work and efficiency.
- Abstract(参考訳): この拡張抽象化には、IQIS2018で報告された作業の概要が含まれている。
熱化プロセスを利用して、資源システム $r$ から2部システム $s$ へ作業を抽出することが可能であることを示す。
これを実現するために、温度$T$の単一浴場が存在する場合の一般的な設定における単純なプロトコルを提案し、その上で量子ラビモデルにより$S$が$T=0$のときにそれを検証する。
一般の場合、プロトコルの理論的境界を見つけ、Rabiモデルに適用すると、作業と効率の十分な抽出が発生することを示す。
関連論文リスト
- Zero-Fluctuation Quantum Work Extraction [0.7252027234425332]
量子システムから作業を取り出すための決定論的プロトコルの可能性について検討する。
系の十分なコピーがあれば、ハミルトニアンが有理スペクトルを持つならば、そのようなゼロゆらぎプロトコルは常に存在することが証明される。
論文 参考訳(メタデータ) (2024-02-26T19:01:42Z) - Collective advantages in finite-time thermodynamics [0.0]
W_rm disspropto Nx$は、プロトコルに沿って対話が適切に作成される集合プロトコルを考えることで、劇的に削減できることを示す。
これらの結果の応用として、有限時間における情報の消去に焦点をあて、ランダウアーの境界へのより高速な収束を証明した。
論文 参考訳(メタデータ) (2023-06-28T20:10:02Z) - Cooling and work extraction under memory-assisted Markovian thermal
processes [0.0]
有限次元メモリを用いたマルコフ熱プロセスによる冷却・作業抽出の限界について検討する。
量子ビット系を冷却するには、コヒーレント制御による冷却と非コヒーレント制御による冷却の2つのパラダイムを考える。
作業抽出のタスクにおいて、目標系が励起状態の量子ビットである場合、TPによって達成される最小抽出誤差は、十分なメモリで支援されたマルコフ熱過程によって近似できることを示す。
論文 参考訳(メタデータ) (2023-06-12T05:59:31Z) - Fast Rates for Maximum Entropy Exploration [52.946307632704645]
エージェントが未知の環境下で活動し、報酬が得られない場合、強化学習(RL)における探索の課題に対処する。
本研究では,最大エントロピー探索問題を2つの異なるタイプで検討する。
訪問エントロピーには、$widetildemathcalO(H3S2A/varepsilon2)$ sample complexity を持つゲーム理論アルゴリズムを提案する。
軌道エントロピーに対しては,次数$widetildemathcalO(mathrmpoly(S,)の複雑さのサンプルを持つ単純なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-14T16:51:14Z) - Controlled remote implementation of operations via graph states [7.238541917115604]
本稿では,制御能力のある遠隔操作の制御プロトコルを提案する。
2N+1)$-partiteグラフ状態を共有すると、2N$参加者が協力してスタレーターを準備し、操作を実現する。
提案プロトコルの制御能力は,正の演算子値測定により信頼性が高いことを示す。
論文 参考訳(メタデータ) (2022-10-26T12:50:14Z) - Reward-Free Model-Based Reinforcement Learning with Linear Function
Approximation [92.99933928528797]
エピソードマルコフ決定過程(MDP)に対する線形関数近似を用いたモデルに基づく無報酬強化学習について検討する。
計画段階では、特定の報酬関数が与えられ、探索フェーズから収集したサンプルを使用して良い政策を学ぶ。
任意の報酬関数に対して$epsilon$-optimal Policyを得るには,最大$tilde O(H4d(H + d)epsilon-2)$ episodesをサンプリングする必要がある。
論文 参考訳(メタデータ) (2021-10-12T23:03:58Z) - Quantum double aspects of surface code models [77.34726150561087]
基礎となる量子double $D(G)$対称性を持つ正方格子上でのフォールトトレラント量子コンピューティングの北エフモデルを再検討する。
有限次元ホップ代数$H$に基づいて、我々の構成がどのように$D(H)$モデルに一般化するかを示す。
論文 参考訳(メタデータ) (2021-06-25T17:03:38Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Weighted QMIX: Expanding Monotonic Value Function Factorisation for Deep
Multi-Agent Reinforcement Learning [66.94149388181343]
本稿では,MARLのためのQ$-learningアルゴリズムの新バージョンを提案する。
Q*$をアクセスしても、最適なポリシーを回復できることを示します。
また,プレデレータープリとマルチエージェントのStarCraftベンチマークタスクの性能向上を実証した。
論文 参考訳(メタデータ) (2020-06-18T18:34:50Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z) - Simple scheme for extracting work with a single bath [0.0]
このプロトコルは、単一の入浴のみを含む最近の作業定義に基づいている。
抽出された作業とプロセスの理想的な効率の両方を定量化し、それらに最大限のバウンダリを与える。
我々の提案は、細かい制御を必要としない単純な操作を利用する。
論文 参考訳(メタデータ) (2018-06-29T12:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。