論文の概要: Realizing a deep reinforcement learning agent discovering real-time
feedback control strategies for a quantum system
- arxiv url: http://arxiv.org/abs/2210.16715v1
- Date: Sun, 30 Oct 2022 01:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-21 00:46:12.761565
- Title: Realizing a deep reinforcement learning agent discovering real-time
feedback control strategies for a quantum system
- Title(参考訳): 量子システムのリアルタイムフィードバック制御戦略を探索する深層強化学習エージェントの実現
- Authors: Kevin Reuer, Jonas Landgraf, Thomas F\"osel, James O'Sullivan, Liberto
Beltr\'an, Abdulkadir Akin, Graham J. Norris, Ants Remm, Michael Kerschbaum,
Jean-Claude Besse, Florian Marquardt, Andreas Wallraff, Christopher Eichler
- Abstract要約: 我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた遅延最適化ディープニューラルネットワークを開発した。
超伝導量子ビットを標的状態に効率よく初期化する手法を実証する。
本研究では, エージェントの性能を, 強度, 弱い測定値, および3レベル読み出し値として検討し, しきい値に基づく簡単な手法との比較を行った。
- 参考スコア(独自算出の注目度): 3.598535368045164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To realize the full potential of quantum technologies, finding good
strategies to control quantum information processing devices in real time
becomes increasingly important. Usually these strategies require a precise
understanding of the device itself, which is generally not available.
Model-free reinforcement learning circumvents this need by discovering control
strategies from scratch without relying on an accurate description of the
quantum system. Furthermore, important tasks like state preparation, gate
teleportation and error correction need feedback at time scales much shorter
than the coherence time, which for superconducting circuits is in the
microsecond range. Developing and training a deep reinforcement learning agent
able to operate in this real-time feedback regime has been an open challenge.
Here, we have implemented such an agent in the form of a latency-optimized deep
neural network on a field-programmable gate array (FPGA). We demonstrate its
use to efficiently initialize a superconducting qubit into a target state. To
train the agent, we use model-free reinforcement learning that is based solely
on measurement data. We study the agent's performance for strong and weak
measurements, and for three-level readout, and compare with simple strategies
based on thresholding. This demonstration motivates further research towards
adoption of reinforcement learning for real-time feedback control of quantum
devices and more generally any physical system requiring learnable low-latency
feedback control.
- Abstract(参考訳): 量子技術の潜在能力を最大限に発揮するためには、量子情報処理装置をリアルタイムで制御するための優れた戦略を見つけることがますます重要である。
通常これらの戦略はデバイス自体の正確な理解を必要とするが、一般には利用できない。
モデルなし強化学習は、量子システムの正確な記述に頼ることなく、制御戦略をゼロから発見することで、このニーズを回避する。
さらに、状態準備、ゲートテレポーテーション、誤り訂正といった重要なタスクは、超伝導回路がマイクロ秒の範囲にあるコヒーレンス時間よりもはるかに短い時間スケールでフィードバックを必要とする。
このリアルタイムフィードバック体制で動作可能な深層強化学習エージェントの開発と訓練は、オープンな課題である。
そこで我々は,フィールドプログラマブルゲートアレイ(FPGA)上に,遅延最適化ディープニューラルネットワークという形でエージェントを実装した。
超伝導量子ビットを標的状態に効率よく初期化する手法を実証する。
エージェントのトレーニングには,計測データのみに基づいたモデルフリー強化学習を使用する。
エージェントの性能を,強い測定値と弱い測定値,および3レベル読み出し値について検討し,しきい値に基づく単純な戦略と比較した。
この実証は、量子デバイスのリアルタイムフィードバック制御や、より一般的には学習可能な低遅延フィードバック制御を必要とする物理システムのための強化学習の採用に向けたさらなる研究を動機付ける。
関連論文リスト
- ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Semantic-aware Transmission Scheduling: a Monotonicity-driven Deep
Reinforcement Learning Approach [39.681075180578986]
6G時代のサイバー物理システムでは、アプリケーションレベルの性能を保証するためにセマンティック通信が必要である。
本稿では,まず,最適なセマンティック・アウェア・スケジューリング・ポリシーの基本的特性について検討する。
そこで我々は,理論ガイドラインを活用することにより,高度な深層強化学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-23T05:45:22Z) - Quantum Control based on Deep Reinforcement Learning [1.8710230264817362]
本論では,2つの単純な制御問題を考察し,それらを深層強化学習に適用する。
本稿では,強化学習が2次ケースの最適制御に匹敵する性能を達成することを示す。
量子制御問題に深層強化学習を適用するのはこれが初めてである。
論文 参考訳(メタデータ) (2022-12-14T18:12:26Z) - Quantum Optimal Control without Arbitrary Waveform Generators [1.572727650614088]
量子系の任意の制御は、適切な順序で制御フィールドをオン/オフするだけで実現できることを示す。
制御プロトコルの柔軟性と堅牢性を実証し,超伝導量子回路に適用する。
論文 参考訳(メタデータ) (2022-09-20T17:27:27Z) - Quantum circuit debugging and sensitivity analysis via local inversions [62.997667081978825]
本稿では,回路に最も影響を及ぼす量子回路の断面をピンポイントする手法を提案する。
我々は,IBM量子マシン上に実装されたアルゴリズム回路の例に応用して,提案手法の実用性と有効性を示す。
論文 参考訳(メタデータ) (2022-04-12T19:39:31Z) - Self-Correcting Quantum Many-Body Control using Reinforcement Learning
with Tensor Networks [0.0]
本稿では、強化学習(RL)に基づく量子多体系を効率的に制御するための新しい枠組みを提案する。
我々は、RLエージェントが普遍的な制御を見出すことができ、多くの身体状態を最適に制御する方法を学ぶことができ、量子力学が摂動を受けるとき、制御プロトコルをオンザフライで適用できることを示した。
論文 参考訳(メタデータ) (2022-01-27T20:14:09Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - Model-Free Quantum Control with Reinforcement Learning [0.0]
本研究では,量子制御タスクにおける強化学習エージェントをモデル無しで学習するための回路ベースアプローチを提案する。
実験可能な観測機器の測定値を用いて学習エージェントに報奨を与える方法を示す。
このアプローチは、サンプル効率の観点から、広く使われているモデルフリーメソッドよりも大幅に優れている。
論文 参考訳(メタデータ) (2021-04-29T17:53:26Z) - Experimental quantum speed-up in reinforcement learning agents [0.17849902073068336]
強化学習(RL)は人工知能(AI)の重要なパラダイムである
本稿では,エージェントの学習を環境との量子通信チャネルを利用して促進するRL実験について述べる。
我々は,この学習プロトコルを,コンパクトで完全に調整可能な集積ナノフォトニックプロセッサ上に実装する。
論文 参考訳(メタデータ) (2021-03-10T19:01:12Z) - Probing quantum information propagation with out-of-time-ordered
correlators [41.12790913835594]
小型の量子情報プロセッサは、多体量子システムを効率的にエミュレートする約束を持っている。
ここでは、時間外順序付き相関器(OTOC)の測定を実演する。
我々の実験における中心的な要件は、時間進化をコヒーレントに逆転させる能力である。
論文 参考訳(メタデータ) (2021-02-23T15:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。