論文の概要: Preparation of cavity Fock state superpositions by reinforcement
learning exploiting measurement back-action
- arxiv url: http://arxiv.org/abs/2305.11047v1
- Date: Thu, 18 May 2023 15:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 14:17:20.179471
- Title: Preparation of cavity Fock state superpositions by reinforcement
learning exploiting measurement back-action
- Title(参考訳): 測定バックアクションを利用した強化学習によるキャビティフォック状態重ね合わせの作製
- Authors: Arthur Perret, Yves B\'erub\'e-Lauzi\`ere
- Abstract要約: ボゾンおよび一般空洞量子状態の生成は通常、望ましい目標状態に到達するためにオープンループ制御を使用する。
この研究では、測定に基づくフィードバックアプローチを用いて、弱い測定の非線形性をコヒーレントな駆動と共に利用し、これらの状態を作成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Preparation of bosonic and general cavity quantum states usually relies on
using open-loop control to reach a desired target state. In this work, a
measurement-based feedback approach is used instead, exploiting the
non-linearity of weak measurements alongside a coherent drive to prepare these
states. The extension of previous work on Lyapunov-based control is shown to
fail for this task. This prompts for a different approach, and reinforcement
learning (RL) is resorted to here for this purpose. With such an approach,
cavity eigenstate superpositions can be prepared with fidelities over 98$\%$
using only the measurements back-action as the non-linearity, while naturally
incorporating detection of cavity photon jumps. Two different RL frameworks are
analyzed: an off-policy approach recently introduced called truncated quantile
critic~(TQC) and the on-policy method commonly used in quantum control, namely
proximal policy optimization~(PPO). It is shown that TQC performs better at
reaching higher target state fidelity preparation.
- Abstract(参考訳): ボゾンおよび一般空洞量子状態の生成は通常、望ましい目標状態に到達するためにオープンループ制御を使用する。
そこで本研究では,コヒーレントドライブと共に弱測定の非線形性を活用し,測定に基づくフィードバック手法を提案する。
lyapunovベースの制御に関する以前の作業の延長は、このタスクに失敗することが示されている。
これは別のアプローチを促すもので、強化学習(rl)はこの目的のためにここで使われる。
このようなアプローチにより、キャビティ固有状態重ね合わせは、キャビティフォトンジャンプの検出を自然に取り入れつつ、測定バックアクションのみを非線形として98$\%以上で作成することができる。
truncated quantile critic~(tqc)と呼ばれる最近導入されたオフポリシーアプローチと、量子制御で一般的に使用されるオンポリシーメソッド、すなわち近位政策最適化~(ppo)である。
その結果,TQCはより高い目標状態の忠実度を達成できることがわかった。
関連論文リスト
- FOCQS: Feedback Optimally Controlled Quantum States [0.0]
FALQONのようなフィードバックベースの量子アルゴリズムは微調整の問題を避けるが、回路深度の追加と収束保証の欠如を犠牲にしている。
我々は、従来の制御層を摂動的に更新するためにそれを利用する分析フレームワークを開発した。
この摂動的手法は、フィードバックに基づくアルゴリズムの結果を改善するために、フィードバック最適化量子状態(FOCQS)と呼ぶ。
論文 参考訳(メタデータ) (2024-09-23T18:00:06Z) - Last-Iterate Global Convergence of Policy Gradients for Constrained Reinforcement Learning [62.81324245896717]
我々はC-PGと呼ばれる探索非依存のアルゴリズムを導入し、このアルゴリズムは(弱)勾配支配仮定の下でのグローバルな最終点収束を保証する。
制約付き制御問題に対して,我々のアルゴリズムを数値的に検証し,それらを最先端のベースラインと比較する。
論文 参考訳(メタデータ) (2024-07-15T14:54:57Z) - Quantum steering from phase measurements with limited resources [0.20616237122336117]
量子ステアリング(quantum steering)は、アリス(Alice)が遠い位置にある状態の量子相関によって制御する能力を捉える。
この結果は,量子チャネルの検証にこのような気象学的アプローチを適用するためのガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-30T20:37:00Z) - Deterministic constant-depth preparation of the AKLT state on a quantum
processor using fusion measurements [0.2007262412327553]
スピン-1 Affleck, Kennedy, Lieb, TasakiAKLT モデルの基底状態は、行列積状態と対称性保護位相の両方のパラダイム的な例である。
非ゼロ相関長を持つAKLT状態は、局所ゲートからなる一定の深さのユニタリ回路によって正確には作成できない。
固定深度回路を融合測定で拡張することにより、この非ゴー限界を回避できることを実証する。
論文 参考訳(メタデータ) (2022-10-31T17:58:01Z) - Measurement-based state preparation of Kerr parametric oscillators [0.09176056742068812]
我々は,ポンプフィールドや補助駆動フィールドの変調を必要としないホモダイン検出に基づくKPOの状態調製について検討する。
検出データは,測定ノイズの影響を減少させるために適切な時間で平均化した場合,KPOの状態と強く相関することを示す。
測定ノイズとビットフリップの影響を考慮した状態推定の成功確率について検討する。
論文 参考訳(メタデータ) (2022-08-09T05:12:09Z) - Posterior Coreset Construction with Kernelized Stein Discrepancy for
Model-Based Reinforcement Learning [78.30395044401321]
我々は、強化学習(MBRL)のための新しいモデルベースアプローチを開発する。
ターゲット遷移モデルの仮定を緩和し、混合モデルの一般的な族に属する。
連続的な制御環境では、壁時計の時間を最大50%削減することができる。
論文 参考訳(メタデータ) (2022-06-02T17:27:49Z) - A Quantum Optimal Control Problem with State Constrained Preserving
Coherence [68.8204255655161]
非単体脱コヒーレンスチャネルを特徴とするマルコフ脱コヒーレンスを受ける3レベル$Lambda$型原子を考える。
我々は、デコヒーレンスレベルが予め定義された境界内にある状態制約で量子最適制御問題を定式化する。
論文 参考訳(メタデータ) (2022-03-24T21:31:34Z) - Model-Free Quantum Control with Reinforcement Learning [0.0]
本研究では,量子制御タスクにおける強化学習エージェントをモデル無しで学習するための回路ベースアプローチを提案する。
実験可能な観測機器の測定値を用いて学習エージェントに報奨を与える方法を示す。
このアプローチは、サンプル効率の観点から、広く使われているモデルフリーメソッドよりも大幅に優れている。
論文 参考訳(メタデータ) (2021-04-29T17:53:26Z) - Point-Level Temporal Action Localization: Bridging Fully-supervised
Proposals to Weakly-supervised Losses [84.2964408497058]
point-level temporal action localization (ptal) は、各アクションインスタンスに対して1つのタイムスタンプアノテーションで、未トリミングビデオ内のアクションをローカライズすることを目的としている。
既存の手法ではフレームレベルの予測パラダイムを採用し、スパース単一フレームラベルから学習する。
本稿では,ポイントレベルアノテーションの提案に基づく予測パラダイムを検討する。
論文 参考訳(メタデータ) (2020-12-15T12:11:48Z) - C-Learning: Learning to Achieve Goals via Recursive Classification [163.7610618571879]
自律エージェントの将来の状態分布を予測・制御する問題について検討する。
我々の研究は、密度推定としてゴール条件付きRLの基礎を定めている。
論文 参考訳(メタデータ) (2020-11-17T19:58:56Z) - Preparation of excited states for nuclear dynamics on a quantum computer [117.44028458220427]
量子コンピュータ上で励起状態を作成するための2つの異なる方法を研究する。
シミュレーションおよび実量子デバイス上でこれらの手法をベンチマークする。
これらの結果から,フォールトトレラントデバイスに優れたスケーリングを実現するために設計された量子技術が,接続性やゲート忠実性に制限されたデバイスに実用的なメリットをもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-28T17:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。