論文の概要: Improving robustness of quantum feedback control with reinforcement
learning
- arxiv url: http://arxiv.org/abs/2401.17190v1
- Date: Tue, 30 Jan 2024 17:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:09:39.825266
- Title: Improving robustness of quantum feedback control with reinforcement
learning
- Title(参考訳): 強化学習による量子フィードバック制御の堅牢性向上
- Authors: Manuel Guatto, Gian Antonio Susto, Francesco Ticozzi
- Abstract要約: 強化学習アプローチは、目標システムにおける所望状態の状態の準備のためのフィードバック法を導出するために用いられる。
得られた戦略の強固さと騒音量に焦点をあてる。
堅牢なコントローラの効果的なオフライントレーニングの可能性は、実用的な実装に対する大きな利点を期待できる。
- 参考スコア(独自算出の注目度): 5.236286830498895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Obtaining reliable state preparation protocols is a key step towards
practical implementation of many quantum technologies, and one of the main
tasks in quantum control. In this work, different reinforcement learning
approaches are used to derive a feedback law for state preparation of a desired
state in a target system. In particular, we focus on the robustness of the
obtained strategies with respect to different types and amount of noise.
Comparing the results indicates that the learned controls are more robust to
unmodeled perturbations with respect to simple feedback strategy based on
optimized population transfer, and that training on simulated nominal model
retain the same advantages displayed by controllers trained on real data. The
possibility of effective off-line training of robust controllers promises
significant advantages towards practical implementation.
- Abstract(参考訳): 多くの量子技術の実用的な実装に向けた重要なステップであり、量子制御における主要なタスクの1つである。
本研究では,対象システムにおける所望状態の状態準備に関するフィードバック法を導出するために,異なる強化学習手法を用いる。
特に,様々な種類の雑音に対して,得られた戦略のロバスト性に着目した。
比較の結果, 学習した制御は, 最適人口移動に基づく単純なフィードバック戦略に関して, 未モデル化の摂動に対してより頑健であり, 実データで訓練したコントローラが提示するのと同じアドバンテージを持つことがわかった。
堅牢なコントローラの効果的なオフライントレーニングの可能性は、実用的な実装に対する大きな利点を期待できる。
関連論文リスト
- Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Conformal Policy Learning for Sensorimotor Control Under Distribution
Shifts [61.929388479847525]
本稿では,センサコントローラの観測値の分布変化を検知・応答する問題に焦点をあてる。
鍵となる考え方は、整合量子を入力として取ることができるスイッチングポリシーの設計である。
本稿では, 基本方針を異なる特性で切り替えるために, 共形量子関数を用いてこのようなポリシーを設計する方法を示す。
論文 参考訳(メタデータ) (2023-11-02T17:59:30Z) - Model predictive control-based value estimation for efficient reinforcement learning [6.8237783245324035]
データ駆動型アプローチにより環境をモデル化するモデル予測制御に基づく改良された強化学習手法を設計する。
学習した環境モデルに基づいて、値関数を推定し、ポリシーを最適化する多段階予測を行う。
本手法は, 学習効率の向上, 局所最適値に傾向のある戦略の収束速度の向上, 経験的再生バッファに必要なサンプル容量の削減を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:14Z) - Model-based adaptation for sample efficient transfer in reinforcement
learning control of parameter-varying systems [1.8799681615947088]
我々はモデルに基づく制御のアイデアを活用し、強化学習アルゴリズムのサンプル効率問題に対処する。
また,本手法は強化学習のみでの微調整よりもサンプリング効率が高いことを示した。
論文 参考訳(メタデータ) (2023-05-20T10:11:09Z) - Improving the Performance of Robust Control through Event-Triggered
Learning [74.57758188038375]
LQR問題における不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
本研究では,ロバストな制御器ベースライン上での性能向上を数値例で示す。
論文 参考訳(メタデータ) (2022-07-28T17:36:37Z) - Stochastic optimization for learning quantum state feedback control [16.4432244108711]
量子非破壊測定を用いたオープン量子システムのためのディープフィードバックネットワークのトレーニングフレームワークを提案する。
本手法は, 並列化性, オープンなシステム間相互作用に対する堅牢性, およびシミュレーションにおけるランドマーク状態フィードバック制御結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-18T19:00:06Z) - Adaptive control of a mechatronic system using constrained residual
reinforcement learning [0.0]
本研究では,不確実な環境下での従来のコントローラの性能向上のための,シンプルで実用的で直感的な手法を提案する。
本手法は, 産業用モーションコントロールにおける従来の制御器が, 異なる動作条件に対応するために適応性よりも頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-06T08:13:05Z) - Reinforcement learning-enhanced protocols for coherent
population-transfer in three-level quantum systems [50.591267188664666]
我々は、人口移動のための最適なプロトコルを特定するために、強化学習に基づくアプローチとより伝統的な最適化手法を組み合わせて展開する。
提案手法は,効率的なプロトコルの存在を明らかにするための制御プロトコルの空間を探索することができる。
私たちが特定する新しいプロトコルは、エネルギー損失と軽視の両方に対して堅牢です。
論文 参考訳(メタデータ) (2021-09-02T14:17:30Z) - Model-Free Quantum Control with Reinforcement Learning [0.0]
本研究では,量子制御タスクにおける強化学習エージェントをモデル無しで学習するための回路ベースアプローチを提案する。
実験可能な観測機器の測定値を用いて学習エージェントに報奨を与える方法を示す。
このアプローチは、サンプル効率の観点から、広く使われているモデルフリーメソッドよりも大幅に優れている。
論文 参考訳(メタデータ) (2021-04-29T17:53:26Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。