論文の概要: Unentangled quantum reinforcement learning agents in the OpenAI Gym
- arxiv url: http://arxiv.org/abs/2203.14348v1
- Date: Sun, 27 Mar 2022 16:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 17:01:07.642172
- Title: Unentangled quantum reinforcement learning agents in the OpenAI Gym
- Title(参考訳): OpenAI領域における無絡量子強化学習エージェント
- Authors: Jen-Yueh Hsiao, Yuxuan Du, Wei-Yin Chiang, Min-Hsiu Hsieh, and
Hsi-Sheng Goan
- Abstract要約: 量子RLの収束速度は古典的RLよりも優れていることを示す。
我々はOpenAI GymでLunarLanderのタスクを完了できる最初の量子RLエージェントを訓練する。
- 参考スコア(独自算出の注目度): 9.878032825414293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical reinforcement learning (RL) has generated excellent results in
different regions; however, its sample inefficiency remains a critical issue.
In this paper, we provide concrete numerical evidence that the sample
efficiency (the speed of convergence) of quantum RL could be better than that
of classical RL, and for achieving comparable learning performance, quantum RL
could use much (at least one order of magnitude) fewer trainable parameters
than classical RL. Specifically, we employ the popular benchmarking
environments of RL in the OpenAI Gym, and show that our quantum RL agent
converges faster than classical fully-connected neural networks (FCNs) in the
tasks of CartPole and Acrobot under the same optimization process. We also
successfully train the first quantum RL agent that can complete the task of
LunarLander in the OpenAI Gym. Our quantum RL agent only requires a
single-qubit-based variational quantum circuit without entangling gates,
followed by a classical neural network (NN) to post-process the measurement
output. Finally, we could accomplish the aforementioned tasks on the real IBM
quantum machines. To the best of our knowledge, none of the earlier quantum RL
agents could do that.
- Abstract(参考訳): 古典的強化学習(RL)は様々な地域で優れた成果を上げているが、そのサンプルの非効率性は依然として重要な問題である。
本稿では,量子rlのサンプル効率(収束速度)が古典的rlよりも優れていることを示す具体的な数値的証拠を提供するとともに,同等の学習性能を達成するために,量子rlは古典的rlよりも多くの(少なくとも1桁の)訓練可能なパラメータを使用することができた。
具体的には、openaiジムで人気のあるrlベンチマーク環境を採用し、同じ最適化プロセスでcartopoleとacrobotのタスクにおいて、我々の量子rlエージェントが従来の完全接続ニューラルネットワーク(fcns)よりも高速に収束することを示す。
また、OpenAI GymでLunarLanderのタスクを完了できる最初の量子RLエージェントのトレーニングに成功した。
我々の量子RLエージェントは、ゲートを絡めることなく単一量子ビットベースの変動量子回路を必要とし、次に古典的ニューラルネットワーク(NN)で測定出力を後処理する。
最後に、実際のIBM量子マシン上で、上記のタスクを達成できます。
我々の知る限りでは、初期の量子RLエージェントは誰もそれをできなかった。
関連論文リスト
- Training Classical Neural Networks by Quantum Machine Learning [9.002305736350833]
本研究では、量子系の指数的に大きなヒルベルト空間を利用する古典的ニューラルネットワーク(NN)のトレーニングスキームを提案する。
既存の量子機械学習(QML)法とは異なり、我々の手法を用いた量子コンピュータから得られた結果は、古典的なコンピュータで直接利用できる。
論文 参考訳(メタデータ) (2024-02-26T10:16:21Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Asynchronous training of quantum reinforcement learning [0.8702432681310399]
変分量子回路(VQC)による量子RLエージェント構築の先導的手法
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
検討したタスクにおいて,QRLエージェントの非同期トレーニングが性能に匹敵するか,優れているかを数値シミュレーションで示す。
論文 参考訳(メタデータ) (2023-01-12T15:54:44Z) - Quantum deep recurrent reinforcement learning [0.8702432681310399]
強化学習(Reinforcement Learning、RL)は、複雑なシーケンシャルな意思決定問題を解決するために使用できる機械学習(ML)パラダイムの1つである。
QRLエージェントのコアとなるために、量子長短期メモリ(QLSTM)を構築し、Q$-learningでモデル全体をトレーニングします。
QLSTM-DRQNは従来のDRQNよりも安定で平均スコアの高いCart-Poleのような標準ベンチマークを解くことができる。
論文 参考訳(メタデータ) (2022-10-26T17:29:19Z) - Anticipative measurements in hybrid quantum-classical computation [68.8204255655161]
量子計算を古典的な結果によって補う手法を提案する。
予測の利点を生かして、新しいタイプの量子測度がもたらされる。
予測量子測定では、古典計算と量子計算の結果の組み合わせは最後にのみ起こる。
論文 参考訳(メタデータ) (2022-09-12T15:47:44Z) - Variational Quantum Reinforcement Learning via Evolutionary Optimization [0.0]
グラデーションフリーな進化最適化を用いた深部量子RLタスクの2つのフレームワークを提案する。
本稿では,量子RLエージェントにTN-VQCアーキテクチャを組み込んだハイブリッドフレームワークを提案する。
これにより、147次元の入力でMiniGrid環境で量子RLを実行することができる。
論文 参考訳(メタデータ) (2021-09-01T16:36:04Z) - Quantum Reinforcement Learning: the Maze problem [11.240669509034298]
量子領域に強化学習という古典的な概念を一般化した新しいQMLモデルを導入する。
特に,このアイデアを迷路問題に適用し,迷路から逃れるためにはエージェントが最適な行動集合を学習しなければならない。
エージェントは古典的および量子的状態の両方において最適な戦略を学習し、ノイズの多い環境下での動作についても検討する。
論文 参考訳(メタデータ) (2021-08-10T07:49:58Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。