論文の概要: ARDNS-FN-Quantum: A Quantum-Enhanced Reinforcement Learning Framework with Cognitive-Inspired Adaptive Exploration for Dynamic Environments
- arxiv url: http://arxiv.org/abs/2505.06300v1
- Date: Wed, 07 May 2025 23:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.763377
- Title: ARDNS-FN-Quantum: A Quantum-Enhanced Reinforcement Learning Framework with Cognitive-Inspired Adaptive Exploration for Dynamic Environments
- Title(参考訳): ARDNS-FN-Quantum:動的環境に対する認知型適応探索を用いた量子強化強化学習フレームワーク
- Authors: Umberto Gonçalves de Sousa,
- Abstract要約: 本研究では,動作選択のための2量子ビット量子回路を統合する新しいフレームワークARDNS-FN-Quantumを提案する。
ARDNS-FN-Quantumは10X10グリッドワールドで2万回以上評価され、99.5%の成功率を達成した。
量子コンピューティング、認知科学、RLをブリッジすることで、ARDNS-FN-Quantumは適応学習に対するスケーラブルで人間らしいアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has transformed sequential decision making, yet traditional algorithms like Deep Q-Networks (DQNs) and Proximal Policy Optimization (PPO) often struggle with efficient exploration, stability, and adaptability in dynamic environments. This study presents ARDNS-FN-Quantum (Adaptive Reward-Driven Neural Simulator with Quantum enhancement), a novel framework that integrates a 2-qubit quantum circuit for action selection, a dual-memory system inspired by human cognition, and adaptive exploration strategies modulated by reward variance and curiosity. Evaluated in a 10X10 grid-world over 20,000 episodes, ARDNS-FN-Quantum achieves a 99.5% success rate (versus 81.3% for DQN and 97.0% for PPO), a mean reward of 9.0528 across all episodes (versus 1.2941 for DQN and 7.6196 for PPO), and an average of 46.7 steps to goal (versus 135.9 for DQN and 62.5 for PPO). In the last 100 episodes, it records a mean reward of 9.1652 (versus 7.0916 for DQN and 9.0310 for PPO) and 37.2 steps to goal (versus 52.7 for DQN and 53.4 for PPO). Graphical analyses, including learning curves, steps-to-goal trends, reward variance, and reward distributions, demonstrate ARDNS-FN-Quantum's superior stability (reward variance 5.424 across all episodes versus 252.262 for DQN and 76.583 for PPO) and efficiency. By bridging quantum computing, cognitive science, and RL, ARDNS-FN-Quantum offers a scalable, human-like approach to adaptive learning in uncertain environments, with potential applications in robotics, autonomous systems, and decision-making under uncertainty.
- Abstract(参考訳): 強化学習(RL)はシーケンシャルな意思決定を転換しているが、Deep Q-Networks (DQN) や Proximal Policy Optimization (PPO) といった従来のアルゴリズムは、動的環境における効率的な探索、安定性、適応性に苦しむことが多い。
本研究では,行動選択のための2量子ビット量子回路を統合した新しいフレームワークであるARDNS-FN-Quantum(Adaptive Reward-Driven Neural Simulator with Quantum enhancement, ARDNS-FN-Quantum)について述べる。
2万回以上の10X10グリッドワールドで評価され、ARDNS-FN-Quantumは99.5%の成功率(DQNは81.3%、PPOは97.0%)、全エピソードの平均報酬は9.0528(DQNは12941、PPOは7.6196)、平均目標の46.7ステップ(DQNは135.9、PPOは62.5)である。
過去100話では、平均報酬は9.1652(DQNは7.0916、PPOは9.0310)と37.2ステップ(DQNは52.7、PPOは53.4)である。
学習曲線、ステップ・トゥ・ゴール傾向、報酬分散、報酬分布などのグラフ解析は、ARDNS-FN-Quantumの優れた安定性(全エピソードにわたる逆分散 5.424 対 DQN 252.262 対 PPO 76.583)と効率を示す。
量子コンピューティング、認知科学、およびRLをブリッジすることによって、ARDNS-FN-Quantumは、不確実な環境で適応学習にスケーラブルで人間的なアプローチを提供する。
関連論文リスト
- Performance Evaluation of Variational Quantum Eigensolver and Quantum Dynamics Algorithms on the Advection-Diffusion Equation [0.0]
本研究では3つの主要な量子力学アルゴリズムに対して基底状態アルゴリズムである変分量子固有解法(VQE)をベンチマークする。
VQEは、$O(10-9)$で、$N=4$ qubitsと適度な回路深さを持つ。
論文 参考訳(メタデータ) (2025-03-31T13:09:59Z) - EQNN: Enhanced Quantum Neural Network [0.0]
本研究では、拡張特徴マップ(EFM)を含む拡張量子ニューラルネットワーク(EQNN)を提案する。
このEMMは、入力変数を量子コンピューティングに適した値範囲に効果的にマッピングし、変動モデルへの入力として機能し、精度を向上させる。
提案したEQNNは、現在の主流QNNと比較され、実験結果から、量子論理ゲートが少なくて高い精度が得られることが示された。
論文 参考訳(メタデータ) (2024-11-21T12:54:46Z) - Enhancing Variational Quantum Circuit Training: An Improved Neural Network Approach for Barren Plateau Mitigation [0.0]
変分量子アルゴリズム(VQA)は、短期量子コンピューティングにおいて最も有望なアルゴリズムの一つである。
コスト関数を最適化するために回路パラメータを反復的に更新する。
変分量子回路(VQCs)の訓練は、バレンプラトー(BPs)と呼ばれる現象の影響を受けやすい
論文 参考訳(メタデータ) (2024-11-14T06:43:37Z) - SPARQ: Efficient Entanglement Distribution and Routing in Space-Air-Ground Quantum Networks [50.91365514137301]
宇宙空間量子(SPARQ)ネットワークは、シームレスなオンデマンドの絡み合い分布を提供する手段として開発された。
SPARQの複数のグラフ上でディープQネットワーク(DQN)を用いて深層強化学習フレームワークを提案し,訓練した。
通信相手間の絡み合いを確立するために,サードパーティの絡み合い分散政策を提案する。
論文 参考訳(メタデータ) (2024-09-19T16:31:37Z) - AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - Weight Re-Mapping for Variational Quantum Algorithms [54.854986762287126]
変動量子回路(VQC)における重み付けの考え方を紹介する。
我々は,8つの分類データセットに対する影響を評価するために,7つの異なる重み再マッピング関数を用いる。
以上の結果から,重量再マッピングによりVQCの収束速度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-06-09T09:42:21Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。