論文の概要: Quantum proportional-integral (PI) control
- arxiv url: http://arxiv.org/abs/2007.13853v2
- Date: Sun, 13 Dec 2020 15:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 02:30:05.843076
- Title: Quantum proportional-integral (PI) control
- Title(参考訳): 量子比例積分(PI)制御
- Authors: Hui Chen, Hanhan Li, Felix Motzoi, Leigh S. Martin, K. Birgitta
Whaley, Mohan Sarovar
- Abstract要約: 定式化を2つの正準量子フィードバック制御問題に適用する。
絡み合い発生には、測定効率が1未満の場合に、組み合わせたPI戦略が最適である。
調和状態安定化のためには、Pフィードバックは位置と運動量の両方のフィードバックが可能である場合に最高の性能を示す。
- 参考スコア(独自算出の注目度): 6.207388432844965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feedback control is an essential component of many modern technologies and
provides a key capability for emergent quantum technologies. We extend existing
approaches of direct feedback control in which the controller applies a
function directly proportional to the output signal (P feedback), to strategies
in which feedback determined by an integrated output signal (I feedback), and
to strategies in which feedback consists of a combination of P and I terms. The
latter quantum PI feedback constitutes the analog of the widely used
proportional-integral feedback of classical control. All of these strategies
are experimentally feasible and require no complex state estimation. We apply
the resulting formalism to two canonical quantum feedback control problems,
namely, generation of an entangled state of two remote qubits, and
stabilization of a harmonic oscillator under thermal noise under conditions of
arbitrary measurement efficiency. These two problems allow analysis of the
relative benefits of P, I, and PI feedback control. We find that for the
two-qubit remote entanglement generation the best strategy can be a combined PI
strategy when the measurement efficiency is less than one. In contrast, for
harmonic state stabilization we find that P feedback shows the best performance
when actuation of both position and momentum feedback is possible, while when
only actuation of position is available, I feedback consistently shows the best
performance, although feedback delay is shown to improve the performance of a P
strategy here.
- Abstract(参考訳): フィードバック制御は多くの現代技術において不可欠な要素であり、創発的量子技術にとって重要な能力を提供する。
制御器が出力信号(pフィードバック)に直接比例する関数を適用するような直接フィードバック制御や、統合出力信号(iフィードバック)によって決定されるフィードバック戦略、p項とi項の組み合わせからなるフィードバック戦略といった既存のアプローチを拡張する。
後者の量子PIフィードバックは古典的な制御の比例積分フィードバックのアナログを構成する。
これらの戦略はすべて実験的に実現可能であり、複雑な状態推定を必要としない。
任意の測定効率の条件下での熱雑音下での高調波発振器の安定化と、2つの正準量子フィードバック制御問題、すなわち2つのリモートキュービットの絡み合った状態の生成に適用する。
これらの2つの問題は、P、I、PIフィードバック制御の相対的な利点の分析を可能にする。
測定効率が1未満の場合, 2量子ビットの遠隔絡み合わせ生成では, PI戦略の併用が最善であることがわかった。
対照的に、高調波状態安定化では、Pフィードバックは位置と運動量の両方のフィードバックの動作が可能な場合に最高の性能を示すが、Iフィードバックは、P戦略の性能を改善するためにフィードバック遅延が示されるにもかかわらず、常に最高の性能を示す。
関連論文リスト
- FOCQS: Feedback Optimally Controlled Quantum States [0.0]
FALQONのようなフィードバックベースの量子アルゴリズムは微調整の問題を避けるが、回路深度の追加と収束保証の欠如を犠牲にしている。
我々は、従来の制御層を摂動的に更新するためにそれを利用する分析フレームワークを開発した。
この摂動的手法は、フィードバックに基づくアルゴリズムの結果を改善するために、フィードバック最適化量子状態(FOCQS)と呼ぶ。
論文 参考訳(メタデータ) (2024-09-23T18:00:06Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Robust Quantum Control via a Model Predictive Control Strategy [4.197316670989004]
本稿では,有界不確実性を考慮した2レベル量子系のロバスト制御戦略を提案する。
TOMPCアルゴリズムの安定性を保証するための理論的結果を示す。
数値シミュレーションにより、不確実性が存在する場合、我々の量子TOMPCアルゴリズムはロバスト性を高め、その状態を高い忠実度で所望の状態に導出することを示した。
論文 参考訳(メタデータ) (2024-02-12T04:05:54Z) - Real-time feedback protocols for optimizing fault-tolerant two-qubit
gate fidelities in a silicon spin system [0.2981781876202281]
いくつかのグループは、半導体スピン量子ビット系において99%以上の2量子ゲート忠実性を示した。
我々は,最先端のFPGAハードウェアに最適化され,実装された,シングルキュービットと2キュービットのパラメータフィードバックプロトコルをいくつか提示する。
収集したフィードバックデータに対するウェーブレット解析を用いて、システム内の異なるノイズ源についての洞察を得る。
論文 参考訳(メタデータ) (2023-09-21T23:45:13Z) - Stabilizing two-qubit entanglement with dynamically decoupled active
feedback [0.0]
2つの非相互作用量子ビットの最大絡み合った状態を安定化するためのプロトコルを解析する。
我々は, 現実的な非理想性の存在下においても, 単位近傍の忠実度による頑健な安定化が達成可能であることを示す。
論文 参考訳(メタデータ) (2023-08-07T21:59:36Z) - Optimal State Manipulation for a Two-Qubit System Driven by Coherent and
Incoherent Controls [77.34726150561087]
2量子ビット量子系の最適制御には状態準備が重要である。
物理的に異なる2つのコヒーレント制御を利用し、ヒルベルト・シュミット目標密度行列を最適化する。
論文 参考訳(メタデータ) (2023-04-03T10:22:35Z) - Age of Semantics in Cooperative Communications: To Expedite Simulation
Towards Real via Offline Reinforcement Learning [53.18060442931179]
協調リレー通信システムにおける状態更新のセマンティックス更新度を測定するための意味学年代(AoS)を提案する。
オンライン・ディープ・アクター・クリティック(DAC)学習手法を,政治時間差学習の枠組みに基づいて提案する。
そこで我々は,以前に収集したデータセットから最適制御ポリシーを推定する,新しいオフラインDAC方式を提案する。
論文 参考訳(メタデータ) (2022-09-19T11:55:28Z) - Robust and Adaptive Temporal-Difference Learning Using An Ensemble of
Gaussian Processes [70.80716221080118]
本稿では、時間差学習(TD)による政策評価の世代的視点について考察する。
OS-GPTDアプローチは、状態-逆ペアのシーケンスを観測することにより、与えられたポリシーの値関数を推定するために開発された。
1つの固定カーネルに関連する限られた表現性を緩和するために、GP前の重み付けアンサンブル(E)を用いて代替のスキームを生成する。
論文 参考訳(メタデータ) (2021-12-01T23:15:09Z) - Stochastic optimization for learning quantum state feedback control [16.4432244108711]
量子非破壊測定を用いたオープン量子システムのためのディープフィードバックネットワークのトレーニングフレームワークを提案する。
本手法は, 並列化性, オープンなシステム間相互作用に対する堅牢性, およびシミュレーションにおけるランドマーク状態フィードバック制御結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-18T19:00:06Z) - Reinforcement learning-enhanced protocols for coherent
population-transfer in three-level quantum systems [50.591267188664666]
我々は、人口移動のための最適なプロトコルを特定するために、強化学習に基づくアプローチとより伝統的な最適化手法を組み合わせて展開する。
提案手法は,効率的なプロトコルの存在を明らかにするための制御プロトコルの空間を探索することができる。
私たちが特定する新しいプロトコルは、エネルギー損失と軽視の両方に対して堅牢です。
論文 参考訳(メタデータ) (2021-09-02T14:17:30Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。