論文の概要: Stochastic optimization for learning quantum state feedback control
- arxiv url: http://arxiv.org/abs/2111.09896v1
- Date: Thu, 18 Nov 2021 19:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 12:28:13.611247
- Title: Stochastic optimization for learning quantum state feedback control
- Title(参考訳): 量子状態フィードバック制御学習のための確率最適化
- Authors: Ethan N. Evans, Ziyi Wang, Adam G. Frim, Michael R. DeWeese, Evangelos
A. Theodorou
- Abstract要約: 量子非破壊測定を用いたオープン量子システムのためのディープフィードバックネットワークのトレーニングフレームワークを提案する。
本手法は, 並列化性, オープンなシステム間相互作用に対する堅牢性, およびシミュレーションにおけるランドマーク状態フィードバック制御結果よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 16.4432244108711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High fidelity state preparation represents a fundamental challenge in the
application of quantum technology. While the majority of optimal control
approaches use feedback to improve the controller, the controller itself often
does not incorporate explicit state dependence. Here, we present a general
framework for training deep feedback networks for open quantum systems with
quantum nondemolition measurement that allows a variety of system and control
structures that are prohibitive by many other techniques and can in effect
react to unmodeled effects through nonlinear filtering. We demonstrate that
this method is efficient due to inherent parallelizability, robust to open
system interactions, and outperforms landmark state feedback control results in
simulation.
- Abstract(参考訳): 高忠実性状態形成は量子技術応用における根本的な課題である。
最適制御アプローチの大部分はフィードバックを使ってコントローラを改善するが、コントローラ自体が明示的な状態依存を含まないことが多い。
本稿では,他の多くの技術で禁止されている様々なシステムや制御構造を可能とし,非線形フィルタリングによる非モデル化効果に効果的に対応可能な,オープン量子系に対する深いフィードバックネットワークのトレーニングフレームワークを提案する。
本手法は,並列性,オープンシステム間インタラクションの堅牢性,シミュレーションにおけるランドマーク状態フィードバック制御結果よりも優れることを示す。
関連論文リスト
- Improving robustness of quantum feedback control with reinforcement
learning [5.236286830498895]
強化学習アプローチは、目標システムにおける所望状態の状態の準備のためのフィードバック法を導出するために用いられる。
得られた戦略の強固さと騒音量に焦点をあてる。
堅牢なコントローラの効果的なオフライントレーニングの可能性は、実用的な実装に対する大きな利点を期待できる。
論文 参考訳(メタデータ) (2024-01-30T17:20:37Z) - The Quantum Cartpole: A benchmark environment for non-linear
reinforcement learning [0.0]
状態推定と制御可能性のトレードオフがどのように生じるかを示す。
本稿では、転送学習を用いて強化学習を通して訓練された量子制御エージェントを開発する可能性を示す。
論文 参考訳(メタデータ) (2023-11-01T18:02:42Z) - Robust optimization for quantum reinforcement learning control using
partial observations [10.975734427172231]
量子状態の完全な観測は、量子ビット数に対する必要な量子測定数の指数的スケーリングのために実験的に不可能である。
この制御方式は、ノイズが一般的である短期量子デバイスと互換性がある。
騒音振幅が制御振幅と同じレベルであっても、高忠実度状態制御が達成できることが示されている。
論文 参考訳(メタデータ) (2022-06-29T06:30:35Z) - Sparsity in Partially Controllable Linear Systems [56.142264865866636]
本研究では, 部分制御可能な線形力学系について, 基礎となる空間パターンを用いて検討する。
最適制御には無関係な状態変数を特徴付ける。
論文 参考訳(メタデータ) (2021-10-12T16:41:47Z) - Model-Free Quantum Control with Reinforcement Learning [0.0]
本研究では,量子制御タスクにおける強化学習エージェントをモデル無しで学習するための回路ベースアプローチを提案する。
実験可能な観測機器の測定値を用いて学習エージェントに報奨を与える方法を示す。
このアプローチは、サンプル効率の観点から、広く使われているモデルフリーメソッドよりも大幅に優れている。
論文 参考訳(メタデータ) (2021-04-29T17:53:26Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - The Impact of Data on the Stability of Learning-Based Control- Extended
Version [63.97366815968177]
本稿では,Lyapunovをベースとした,認証制御性能に対するデータの影響の定量化手法を提案する。
ガウス過程を通じて未知系の力学をモデル化することにより、モデルの不確実性と安定性条件の満足度の間の相互関係を決定できる。
論文 参考訳(メタデータ) (2020-11-20T19:10:01Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。