論文の概要: Decoding surface codes with deep reinforcement learning and
probabilistic policy reuse
- arxiv url: http://arxiv.org/abs/2212.11890v1
- Date: Thu, 22 Dec 2022 17:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:42:58.982064
- Title: Decoding surface codes with deep reinforcement learning and
probabilistic policy reuse
- Title(参考訳): 深層強化学習と確率的ポリシー再利用による表面符号の復号化
- Authors: Elisha Siddiqui Matekole, Esther Ye, Ramya Iyer, and Samuel Yen-Chi
Chen
- Abstract要約: 現在の量子ハードウェアは、ノイズのある中間スケール量子コンピュータ(NISQ)としても知られており、いまだに忠実に計算を行うことができない。
近年の機械学習(ML)技術,特に強化学習(RL)手法がデコード問題に応用されている。
本稿では,これらの復号化課題に対処する継続的強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum computing (QC) promises significant advantages on certain hard
computational tasks over classical computers. However, current quantum
hardware, also known as noisy intermediate-scale quantum computers (NISQ), are
still unable to carry out computations faithfully mainly because of the lack of
quantum error correction (QEC) capability. A significant amount of theoretical
studies have provided various types of QEC codes; one of the notable
topological codes is the surface code, and its features, such as the
requirement of only nearest-neighboring two-qubit control gates and a large
error threshold, make it a leading candidate for scalable quantum computation.
Recent developments of machine learning (ML)-based techniques especially the
reinforcement learning (RL) methods have been applied to the decoding problem
and have already made certain progress. Nevertheless, the device noise pattern
may change over time, making trained decoder models ineffective. In this paper,
we propose a continual reinforcement learning method to address these decoding
challenges. Specifically, we implement double deep Q-learning with
probabilistic policy reuse (DDQN-PPR) model to learn surface code decoding
strategies for quantum environments with varying noise patterns. Through
numerical simulations, we show that the proposed DDQN-PPR model can
significantly reduce the computational complexity. Moreover, increasing the
number of trained policies can further improve the agent's performance. Our
results open a way to build more capable RL agents which can leverage
previously gained knowledge to tackle QEC challenges.
- Abstract(参考訳): 量子コンピューティング(QC)は、古典的コンピュータよりも特定の計算タスクにおいて大きな利点を約束する。
しかし、現在の量子ハードウェアは、ノイズの多い中間スケール量子コンピュータ(nisq)としても知られ、主に量子エラー訂正(qec)能力の欠如により、忠実に計算を行うことができない。
顕著なトポロジ的符号の1つは表面符号であり、その特徴として、最寄りの2量子ビット制御ゲートと大きなエラー閾値が要求されるなど、スケーラブルな量子計算の候補となる。
近年の機械学習(ML)技術,特に強化学習(RL)手法がデコード問題に応用され,すでに一定の進歩を遂げている。
それでもデバイスノイズパターンは時間とともに変化し、訓練されたデコーダモデルを非効率にする。
本稿では,これらの復号化課題に対処する継続的強化学習手法を提案する。
具体的には,確率的ポリシ再利用(ddqn-ppr)モデルを用いたダブルディープq-learningを実装し,ノイズパターンの異なる量子環境における表面コード復号戦略を学習する。
数値シミュレーションにより,提案するddqn-pprモデルが計算複雑性を大幅に低減できることを示す。
さらに、訓練されたポリシーの数を増やすことで、エージェントのパフォーマンスをさらに改善することができる。
得られた知識を生かしてQEC課題に取り組み,より有能なRLエージェントを構築する方法が提案されている。
関連論文リスト
- Generative AI-enabled Quantum Computing Networks and Intelligent
Resource Allocation [80.78352800340032]
量子コンピューティングネットワークは、大規模な生成AI計算タスクと高度な量子アルゴリズムを実行する。
量子コンピューティングネットワークにおける効率的なリソース割り当ては、量子ビットの可変性とネットワークの複雑さのために重要な課題である。
我々は、生成学習から量子機械学習まで、最先端強化学習(RL)アルゴリズムを導入し、最適な量子リソース割り当てを行う。
論文 参考訳(メタデータ) (2024-01-13T17:16:38Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Challenges for Reinforcement Learning in Quantum Circuit Design [8.894627352356302]
ハイブリッド量子機械学習(QML)は、機械学習(ML)を改善するためのQCの応用と、QCアーキテクチャを改善するためのMLの両方を含む。
本稿では,マルコフ決定過程として定式化された具体的な枠組みを提案し,連続パラメータ化量子ゲートの普遍的な集合を制御することができる学習ポリシーを実現する。
論文 参考訳(メタデータ) (2023-12-18T16:41:30Z) - Quafu-RL: The Cloud Quantum Computers based Quantum Reinforcement
Learning [0.0]
本研究は,BAQIS Quafu量子コンピューティングクラウド上で,少なくとも136量子ビットを備えた実デバイス上で,ベンチマーク量子強化問題を実行するための第一歩である。
実験の結果,Reinforcement Learning (RL) エージェントはトレーニング段階と推論段階の両方でわずかに緩和された目標を達成することができることがわかった。
論文 参考訳(メタデータ) (2023-05-29T09:13:50Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Asynchronous training of quantum reinforcement learning [0.8702432681310399]
変分量子回路(VQC)による量子RLエージェント構築の先導的手法
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
検討したタスクにおいて,QRLエージェントの非同期トレーニングが性能に匹敵するか,優れているかを数値シミュレーションで示す。
論文 参考訳(メタデータ) (2023-01-12T15:54:44Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Quantum Architecture Search via Continual Reinforcement Learning [0.0]
本稿では,量子回路アーキテクチャを構築するための機械学習手法を提案する。
本稿では、この回路設計課題に取り組むために、ディープラーニング(PPR-DQL)フレームワークを用いた確率的ポリシー再利用を提案する。
論文 参考訳(メタデータ) (2021-12-10T19:07:56Z) - Quantum agents in the Gym: a variational quantum algorithm for deep
Q-learning [0.0]
本稿では、離散的かつ連続的な状態空間に対するRLタスクを解くために使用できるパラメタライズド量子回路(PQC)のトレーニング手法を提案する。
量子Q学習エージェントのどのアーキテクチャ選択が、特定の種類の環境をうまく解決するのに最も重要であるかを検討する。
論文 参考訳(メタデータ) (2021-03-28T08:57:22Z) - Quantum circuit architecture search for variational quantum algorithms [88.71725630554758]
本稿では、QAS(Quantum Architecture Search)と呼ばれるリソースと実行時の効率的なスキームを提案する。
QASは、よりノイズの多い量子ゲートを追加することで得られる利点と副作用のバランスをとるために、自動的にほぼ最適アンサッツを求める。
数値シミュレータと実量子ハードウェアの両方に、IBMクラウドを介してQASを実装し、データ分類と量子化学タスクを実現する。
論文 参考訳(メタデータ) (2020-10-20T12:06:27Z) - Space-efficient binary optimization for variational computing [68.8204255655161]
本研究では,トラベリングセールスマン問題に必要なキュービット数を大幅に削減できることを示す。
また、量子ビット効率と回路深さ効率のモデルを円滑に補間する符号化方式を提案する。
論文 参考訳(メタデータ) (2020-09-15T18:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。