論文の概要: Asynchronous training of quantum reinforcement learning
- arxiv url: http://arxiv.org/abs/2301.05096v1
- Date: Thu, 12 Jan 2023 15:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 13:24:34.583549
- Title: Asynchronous training of quantum reinforcement learning
- Title(参考訳): 量子強化学習の非同期学習
- Authors: Samuel Yen-Chi Chen
- Abstract要約: 変分量子回路(VQC)による量子RLエージェント構築の先導的手法
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
検討したタスクにおいて,QRLエージェントの非同期トレーニングが性能に匹敵するか,優れているかを数値シミュレーションで示す。
- 参考スコア(独自算出の注目度): 0.8702432681310399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of quantum machine learning (QML) has received a lot of
interest recently thanks to developments in both quantum computing (QC) and
machine learning (ML). One of the ML paradigms that can be utilized to address
challenging sequential decision-making issues is reinforcement learning (RL).
It has been demonstrated that classical RL can successfully complete many
difficult tasks. A leading method of building quantum RL agents relies on the
variational quantum circuits (VQC). However, training QRL algorithms with VQCs
requires significant amount of computational resources. This issue hurdles the
exploration of various QRL applications. In this paper, we approach this
challenge through asynchronous training QRL agents. Specifically, we choose the
asynchronous training of advantage actor-critic variational quantum policies.
We demonstrate the results via numerical simulations that within the tasks
considered, the asynchronous training of QRL agents can reach performance
comparable to or superior than classical agents with similar model sizes and
architectures.
- Abstract(参考訳): 量子機械学習(QML)の開発は、最近、量子コンピューティング(QC)と機械学習(ML)の両方の発展により、多くの関心を集めている。
逐次的な意思決定問題に対処するために使用できるMLパラダイムの1つは強化学習(RL)である。
古典的RLが多くの困難なタスクを完遂できることが証明されている。
量子RLエージェントを構築する主要な方法は、変分量子回路(VQC)に依存する。
しかし、QRLアルゴリズムをVQCで訓練するにはかなりの量の計算資源が必要である。
この問題は様々なqrlアプリケーションの探索を妨げている。
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
具体的には,アクター批判型変動量子ポリシーの非同期トレーニングを選択する。
我々は,qrlエージェントの非同期学習が,類似したモデルサイズとアーキテクチャを持つ従来のエージェントに匹敵する性能あるいは優れていることを示す数値シミュレーションにより,結果を示す。
関連論文リスト
- Differentiable Quantum Architecture Search in Asynchronous Quantum Reinforcement Learning [3.6881738506505988]
トレーニング可能な回路パラメータと構造重み付けを可能にするために、微分可能な量子アーキテクチャ探索(DiffQAS)を提案する。
提案したDiffQAS-QRL手法は,手作業による回路アーキテクチャに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-07-25T17:11:00Z) - Quantum Subroutine for Variance Estimation: Algorithmic Design and Applications [80.04533958880862]
量子コンピューティングは、アルゴリズムを設計する新しい方法の基礎となる。
どの場の量子スピードアップが達成できるかという新たな課題が生じる。
量子サブルーチンの設計は、従来のサブルーチンよりも効率的で、新しい強力な量子アルゴリズムに固い柱を向ける。
論文 参考訳(メタデータ) (2024-02-26T09:32:07Z) - Efficient quantum recurrent reinforcement learning via quantum reservoir
computing [3.6881738506505988]
量子強化学習(QRL)は、シーケンシャルな意思決定タスクを解決するためのフレームワークとして登場した。
本研究は、QRNNベースの量子長短期メモリ(QLSTM)を用いたQRLエージェントの構築により、この課題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-13T22:18:38Z) - QNEAT: Natural Evolution of Variational Quantum Circuit Architecture [95.29334926638462]
我々は、ニューラルネットワークの量子対する最も有望な候補として登場した変分量子回路(VQC)に注目した。
有望な結果を示す一方で、バレン高原、重みの周期性、アーキテクチャの選択など、さまざまな問題のために、VQCのトレーニングは困難である。
本稿では,VQCの重みとアーキテクチャの両方を最適化するために,自然進化にインスパイアされた勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-14T08:03:20Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - TeD-Q: a tensor network enhanced distributed hybrid quantum machine
learning framework [59.07246314484875]
TeD-Qは、量子機械学習のためのオープンソースのソフトウェアフレームワークである。
古典的な機械学習ライブラリと量子シミュレータをシームレスに統合する。
量子回路とトレーニングの進捗をリアルタイムで視覚化できるグラフィカルモードを提供する。
論文 参考訳(メタデータ) (2023-01-13T09:35:05Z) - Quantum deep recurrent reinforcement learning [0.8702432681310399]
強化学習(Reinforcement Learning、RL)は、複雑なシーケンシャルな意思決定問題を解決するために使用できる機械学習(ML)パラダイムの1つである。
QRLエージェントのコアとなるために、量子長短期メモリ(QLSTM)を構築し、Q$-learningでモデル全体をトレーニングします。
QLSTM-DRQNは従来のDRQNよりも安定で平均スコアの高いCart-Poleのような標準ベンチマークを解くことができる。
論文 参考訳(メタデータ) (2022-10-26T17:29:19Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Quantum Multi-Agent Reinforcement Learning via Variational Quantum
Circuit Design [16.53719091025918]
本稿では、QRLを量子マルチエージェントRL(QMARL)に拡張し、実証する。
ノイズ中間スケール量子(NISQ)と古典的マルチエージェントRL(MARL)の非定常特性のため、QRLからQMARLへの拡張は簡単ではない。
提案されたQMARLフレームワークは、古典的なフレームワークよりも57.7%の報酬を得られる。
論文 参考訳(メタデータ) (2022-03-20T03:44:45Z) - Quantum agents in the Gym: a variational quantum algorithm for deep
Q-learning [0.0]
本稿では、離散的かつ連続的な状態空間に対するRLタスクを解くために使用できるパラメタライズド量子回路(PQC)のトレーニング手法を提案する。
量子Q学習エージェントのどのアーキテクチャ選択が、特定の種類の環境をうまく解決するのに最も重要であるかを検討する。
論文 参考訳(メタデータ) (2021-03-28T08:57:22Z) - Quantum circuit architecture search for variational quantum algorithms [88.71725630554758]
本稿では、QAS(Quantum Architecture Search)と呼ばれるリソースと実行時の効率的なスキームを提案する。
QASは、よりノイズの多い量子ゲートを追加することで得られる利点と副作用のバランスをとるために、自動的にほぼ最適アンサッツを求める。
数値シミュレータと実量子ハードウェアの両方に、IBMクラウドを介してQASを実装し、データ分類と量子化学タスクを実現する。
論文 参考訳(メタデータ) (2020-10-20T12:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。