論文の概要: Batch Quantum Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2305.00905v1
- Date: Thu, 27 Apr 2023 16:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 12:55:48.500558
- Title: Batch Quantum Reinforcement Learning
- Title(参考訳): バッチ量子強化学習
- Authors: Maniraman Periyasamy and Marc H\"olle and Marco Wiedmann and Daniel D.
Scherer and Axel Plinge and Christopher Mutschler
- Abstract要約: 離散BCQアルゴリズムにおいて,VQCを関数近似器として活用したバッチRLアルゴリズムを提案する。
我々は,OpenAI CartPole環境におけるアルゴリズムの有効性を示し,その性能を従来のニューラルネットワークベースの離散BCQと比較する。
- 参考スコア(独自算出の注目度): 1.3946033794136758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training DRL agents is often a time-consuming process as a large number of
samples and environment interactions is required. This effect is even amplified
in the case of Batch RL, where the agent is trained without environment
interactions solely based on a set of previously collected data. Novel
approaches based on quantum computing suggest an advantage compared to
classical approaches in terms of sample efficiency. To investigate this
advantage, we propose a batch RL algorithm leveraging VQC as function
approximators in the discrete BCQ algorithm. Additionally, we present a novel
data re-uploading scheme based on cyclically shifting the input variables'
order in the data encoding layers. We show the efficiency of our algorithm on
the OpenAI CartPole environment and compare its performance to classical neural
network-based discrete BCQ.
- Abstract(参考訳): DRLエージェントの訓練は、多くのサンプルと環境相互作用を必要とするため、しばしば時間を要する。
この効果はバッチrlの場合でも増幅され、エージェントは事前に収集したデータのセットのみに基づいて環境相互作用なしでトレーニングされる。
量子コンピューティングに基づく新しいアプローチは、サンプル効率の点で古典的なアプローチと比較して利点を示唆している。
そこで本研究では,VQCを関数近似器として活用したバッチRLアルゴリズムを提案する。
さらに,データ符号化層における入力変数の順序の周期的シフトに基づく新しいデータ再ロード方式を提案する。
我々は,OpenAI CartPole環境におけるアルゴリズムの有効性を示し,その性能を従来のニューラルネットワークベースの離散BCQと比較する。
関連論文リスト
- Memory-Augmented Quantum Reservoir Computing [0.0]
本稿では、量子計測の古典的後処理を通じてメモリを実装するハイブリッド量子古典的アプローチを提案する。
我々は、完全に連結されたIsingモデルとRydberg原子配列の2つの物理プラットフォーム上でモデルをテストした。
論文 参考訳(メタデータ) (2024-09-15T22:44:09Z) - Hype or Heuristic? Quantum Reinforcement Learning for Join Order Optimisation [5.373015313199384]
最適な結合順序(JO)を特定することは、データベースの研究とエンジニアリングにおいて重要な課題である。
近年, JO の強化学習 (RL) の研究開発に成功している。
本稿では,交互変分量子アンサッツに基づく量子強化学習(QRL)をJOに適用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T14:14:12Z) - Probabilistic Sampling of Balanced K-Means using Adiabatic Quantum Computing [93.83016310295804]
AQCは研究関心の問題を実装でき、コンピュータビジョンタスクのための量子表現の開発に拍車をかけた。
本研究では,この情報を確率的バランスの取れたk平均クラスタリングに活用する可能性について検討する。
最適でない解を捨てる代わりに, 計算コストを少なくして, 校正後部確率を計算することを提案する。
これにより、合成タスクと実際の視覚データについて、D-Wave AQCで示すような曖昧な解とデータポイントを識別することができる。
論文 参考訳(メタデータ) (2023-10-18T17:59:45Z) - Learning RL-Policies for Joint Beamforming Without Exploration: A Batch
Constrained Off-Policy Approach [1.0080317855851213]
本稿では,ネットワークにおけるパラメータキャンセル最適化の問題点について考察する。
探索と学習のために実世界でアルゴリズムをデプロイすることは、探索せずにデータによって達成できることを示す。
論文 参考訳(メタデータ) (2023-10-12T18:36:36Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Emulation Learning for Neuromimetic Systems [0.0]
ニューラル量子化システムに関する最近の研究に基づいて、量子化運動の学習結果とチャネルドロップアウトに対するレジリエンスを報告する。
本稿では,経路を学習するだけでなく,チャネルドロップアウトに対するレジリエンスの利点を示す一般のディープQネットワーク(DQN)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-04T22:47:39Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Quantum agents in the Gym: a variational quantum algorithm for deep
Q-learning [0.0]
本稿では、離散的かつ連続的な状態空間に対するRLタスクを解くために使用できるパラメタライズド量子回路(PQC)のトレーニング手法を提案する。
量子Q学習エージェントのどのアーキテクチャ選択が、特定の種類の環境をうまく解決するのに最も重要であるかを検討する。
論文 参考訳(メタデータ) (2021-03-28T08:57:22Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。