論文の概要: Decoding surface codes with deep reinforcement learning and
probabilistic policy reuse
- arxiv url: http://arxiv.org/abs/2212.11890v1
- Date: Thu, 22 Dec 2022 17:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:42:58.982064
- Title: Decoding surface codes with deep reinforcement learning and
probabilistic policy reuse
- Title(参考訳): 深層強化学習と確率的ポリシー再利用による表面符号の復号化
- Authors: Elisha Siddiqui Matekole, Esther Ye, Ramya Iyer, and Samuel Yen-Chi
Chen
- Abstract要約: 現在の量子ハードウェアは、ノイズのある中間スケール量子コンピュータ(NISQ)としても知られており、いまだに忠実に計算を行うことができない。
近年の機械学習(ML)技術,特に強化学習(RL)手法がデコード問題に応用されている。
本稿では,これらの復号化課題に対処する継続的強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum computing (QC) promises significant advantages on certain hard
computational tasks over classical computers. However, current quantum
hardware, also known as noisy intermediate-scale quantum computers (NISQ), are
still unable to carry out computations faithfully mainly because of the lack of
quantum error correction (QEC) capability. A significant amount of theoretical
studies have provided various types of QEC codes; one of the notable
topological codes is the surface code, and its features, such as the
requirement of only nearest-neighboring two-qubit control gates and a large
error threshold, make it a leading candidate for scalable quantum computation.
Recent developments of machine learning (ML)-based techniques especially the
reinforcement learning (RL) methods have been applied to the decoding problem
and have already made certain progress. Nevertheless, the device noise pattern
may change over time, making trained decoder models ineffective. In this paper,
we propose a continual reinforcement learning method to address these decoding
challenges. Specifically, we implement double deep Q-learning with
probabilistic policy reuse (DDQN-PPR) model to learn surface code decoding
strategies for quantum environments with varying noise patterns. Through
numerical simulations, we show that the proposed DDQN-PPR model can
significantly reduce the computational complexity. Moreover, increasing the
number of trained policies can further improve the agent's performance. Our
results open a way to build more capable RL agents which can leverage
previously gained knowledge to tackle QEC challenges.
- Abstract(参考訳): 量子コンピューティング(QC)は、古典的コンピュータよりも特定の計算タスクにおいて大きな利点を約束する。
しかし、現在の量子ハードウェアは、ノイズの多い中間スケール量子コンピュータ(nisq)としても知られ、主に量子エラー訂正(qec)能力の欠如により、忠実に計算を行うことができない。
顕著なトポロジ的符号の1つは表面符号であり、その特徴として、最寄りの2量子ビット制御ゲートと大きなエラー閾値が要求されるなど、スケーラブルな量子計算の候補となる。
近年の機械学習(ML)技術,特に強化学習(RL)手法がデコード問題に応用され,すでに一定の進歩を遂げている。
それでもデバイスノイズパターンは時間とともに変化し、訓練されたデコーダモデルを非効率にする。
本稿では,これらの復号化課題に対処する継続的強化学習手法を提案する。
具体的には,確率的ポリシ再利用(ddqn-ppr)モデルを用いたダブルディープq-learningを実装し,ノイズパターンの異なる量子環境における表面コード復号戦略を学習する。
数値シミュレーションにより,提案するddqn-pprモデルが計算複雑性を大幅に低減できることを示す。
さらに、訓練されたポリシーの数を増やすことで、エージェントのパフォーマンスをさらに改善することができる。
得られた知識を生かしてQEC課題に取り組み,より有能なRLエージェントを構築する方法が提案されている。
関連論文リスト
- Leveraging Pre-Trained Neural Networks to Enhance Machine Learning with Variational Quantum Circuits [48.33631905972908]
我々は、事前学習されたニューラルネットワークを用いて変分量子回路(VQC)を強化する革新的なアプローチを導入する。
この手法は近似誤差をキュービット数から効果的に分離し、制約条件の必要性を除去する。
我々の結果はヒトゲノム解析などの応用にまで拡張され、我々のアプローチの幅広い適用性を示している。
論文 参考訳(メタデータ) (2024-11-13T12:03:39Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Generative AI-enabled Quantum Computing Networks and Intelligent
Resource Allocation [80.78352800340032]
量子コンピューティングネットワークは、大規模な生成AI計算タスクと高度な量子アルゴリズムを実行する。
量子コンピューティングネットワークにおける効率的なリソース割り当ては、量子ビットの可変性とネットワークの複雑さのために重要な課題である。
我々は、生成学習から量子機械学習まで、最先端強化学習(RL)アルゴリズムを導入し、最適な量子リソース割り当てを行う。
論文 参考訳(メタデータ) (2024-01-13T17:16:38Z) - Quafu-RL: The Cloud Quantum Computers based Quantum Reinforcement
Learning [0.0]
本研究は,BAQIS Quafu量子コンピューティングクラウド上で,少なくとも136量子ビットを備えた実デバイス上で,ベンチマーク量子強化問題を実行するための第一歩である。
実験の結果,Reinforcement Learning (RL) エージェントはトレーニング段階と推論段階の両方でわずかに緩和された目標を達成することができることがわかった。
論文 参考訳(メタデータ) (2023-05-29T09:13:50Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Asynchronous training of quantum reinforcement learning [0.8702432681310399]
変分量子回路(VQC)による量子RLエージェント構築の先導的手法
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
検討したタスクにおいて,QRLエージェントの非同期トレーニングが性能に匹敵するか,優れているかを数値シミュレーションで示す。
論文 参考訳(メタデータ) (2023-01-12T15:54:44Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Quantum Architecture Search via Continual Reinforcement Learning [0.0]
本稿では,量子回路アーキテクチャを構築するための機械学習手法を提案する。
本稿では、この回路設計課題に取り組むために、ディープラーニング(PPR-DQL)フレームワークを用いた確率的ポリシー再利用を提案する。
論文 参考訳(メタデータ) (2021-12-10T19:07:56Z) - Quantum agents in the Gym: a variational quantum algorithm for deep
Q-learning [0.0]
本稿では、離散的かつ連続的な状態空間に対するRLタスクを解くために使用できるパラメタライズド量子回路(PQC)のトレーニング手法を提案する。
量子Q学習エージェントのどのアーキテクチャ選択が、特定の種類の環境をうまく解決するのに最も重要であるかを検討する。
論文 参考訳(メタデータ) (2021-03-28T08:57:22Z) - Quantum circuit architecture search for variational quantum algorithms [88.71725630554758]
本稿では、QAS(Quantum Architecture Search)と呼ばれるリソースと実行時の効率的なスキームを提案する。
QASは、よりノイズの多い量子ゲートを追加することで得られる利点と副作用のバランスをとるために、自動的にほぼ最適アンサッツを求める。
数値シミュレータと実量子ハードウェアの両方に、IBMクラウドを介してQASを実装し、データ分類と量子化学タスクを実現する。
論文 参考訳(メタデータ) (2020-10-20T12:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。