論文の概要: Quantum Circuit Structure Optimization for Quantum Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2507.00589v1
- Date: Tue, 01 Jul 2025 09:16:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.55299
- Title: Quantum Circuit Structure Optimization for Quantum Reinforcement Learning
- Title(参考訳): 量子強化学習のための量子回路構造最適化
- Authors: Seok Bin Son, Joongheon Kim,
- Abstract要約: 強化学習により、エージェントは環境相互作用を通じて最適な政策を学ぶことができる。
量子強化学習(QRL)は、量子コンピューティングにおける重ね合わせと絡み合いを利用してこの問題に対処する。
本稿では、QRL内のPQC構造を最適化するために量子ニューラルネットワーク探索(QNAS)を統合するQRL-NASアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.913187216180424
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reinforcement learning (RL) enables agents to learn optimal policies through environmental interaction. However, RL suffers from reduced learning efficiency due to the curse of dimensionality in high-dimensional spaces. Quantum reinforcement learning (QRL) addresses this issue by leveraging superposition and entanglement in quantum computing, allowing efficient handling of high-dimensional problems with fewer resources. QRL combines quantum neural networks (QNNs) with RL, where the parameterized quantum circuit (PQC) acts as the core computational module. The PQC performs linear and nonlinear transformations through gate operations, similar to hidden layers in classical neural networks. Previous QRL studies, however, have used fixed PQC structures based on empirical intuition without verifying their optimality. This paper proposes a QRL-NAS algorithm that integrates quantum neural architecture search (QNAS) to optimize PQC structures within QRL. Experiments demonstrate that QRL-NAS achieves higher rewards than QRL with fixed circuits, validating its effectiveness and practical utility.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、環境相互作用を通じて最適な政策を学ぶことができる。
しかし、RLは高次元空間における次元性の呪いによる学習効率の低下に悩まされている。
量子強化学習(QRL)は、量子コンピューティングにおける重ね合わせと絡み合いを利用してこの問題に対処し、少ないリソースで高次元問題の効率的な処理を可能にする。
QRLは量子ニューラルネットワーク(QNN)とRLを結合し、パラメータ化量子回路(PQC)がコア計算モジュールとして機能する。
PQCは、古典的ニューラルネットワークの隠蔽層と同様、ゲート操作を通じて線形および非線形変換を行う。
しかし、以前のQRL研究では、その最適性を検証することなく、経験的直観に基づく固定されたPQC構造を用いている。
本稿では、QRL内のPQC構造を最適化するために量子ニューラルネットワーク探索(QNAS)を統合するQRL-NASアルゴリズムを提案する。
実験により、QRL-NASは、固定回路を持つQRLよりも高い報酬を達成し、その有効性と実用性を検証した。
関連論文リスト
- RhoDARTS: Differentiable Quantum Architecture Search with Density Matrix Simulations [48.670876200492415]
変分量子アルゴリズム(VQA)は、強力なノイズ中間スケール量子(NISQ)コンピュータを利用するための有望なアプローチである。
本稿では,量子混合状態の進化をモデルとしたQASアルゴリズムである$rho$DARTSを提案する。
論文 参考訳(メタデータ) (2025-06-04T08:30:35Z) - Quantum-Train-Based Distributed Multi-Agent Reinforcement Learning [5.673361333697935]
量子トレインに基づく分散マルチエージェント強化学習(Dist-QTRL)
量子トレインに基づく分散マルチエージェント強化学習(Dist-QTRL)を紹介する。
論文 参考訳(メタデータ) (2024-12-12T00:51:41Z) - Differentiable Quantum Architecture Search in Asynchronous Quantum Reinforcement Learning [3.6881738506505988]
トレーニング可能な回路パラメータと構造重み付けを可能にするために、微分可能な量子アーキテクチャ探索(DiffQAS)を提案する。
提案したDiffQAS-QRL手法は,手作業による回路アーキテクチャに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-07-25T17:11:00Z) - SF-DQN: Provable Knowledge Transfer using Successor Feature for Deep Reinforcement Learning [89.04776523010409]
本稿では、複数のRL問題が異なる報酬関数を持つが、基礎となる遷移力学を共有する転写強化学習(RL)問題を考察する。
この設定では、各RL問題(タスク)のQ-関数を後継特徴(SF)と報酬マッピングに分解することができる。
GPIを用いたSF-DQNの証明可能な一般化保証を用いた最初の収束解析を確立する。
論文 参考訳(メタデータ) (2024-05-24T20:30:14Z) - Efficient quantum recurrent reinforcement learning via quantum reservoir
computing [3.6881738506505988]
量子強化学習(QRL)は、シーケンシャルな意思決定タスクを解決するためのフレームワークとして登場した。
本研究は、QRNNベースの量子長短期メモリ(QLSTM)を用いたQRLエージェントの構築により、この課題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-13T22:18:38Z) - Quantum deep recurrent reinforcement learning [0.8702432681310399]
強化学習(Reinforcement Learning、RL)は、複雑なシーケンシャルな意思決定問題を解決するために使用できる機械学習(ML)パラダイムの1つである。
QRLエージェントのコアとなるために、量子長短期メモリ(QLSTM)を構築し、Q$-learningでモデル全体をトレーニングします。
QLSTM-DRQNは従来のDRQNよりも安定で平均スコアの高いCart-Poleのような標準ベンチマークを解くことができる。
論文 参考訳(メタデータ) (2022-10-26T17:29:19Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Quantum agents in the Gym: a variational quantum algorithm for deep
Q-learning [0.0]
本稿では、離散的かつ連続的な状態空間に対するRLタスクを解くために使用できるパラメタライズド量子回路(PQC)のトレーニング手法を提案する。
量子Q学習エージェントのどのアーキテクチャ選択が、特定の種類の環境をうまく解決するのに最も重要であるかを検討する。
論文 参考訳(メタデータ) (2021-03-28T08:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。