論文の概要: Nav-Q: Quantum Deep Reinforcement Learning for Collision-Free Navigation
of Self-Driving Cars
- arxiv url: http://arxiv.org/abs/2311.12875v2
- Date: Sat, 23 Dec 2023 15:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:18:33.853274
- Title: Nav-Q: Quantum Deep Reinforcement Learning for Collision-Free Navigation
of Self-Driving Cars
- Title(参考訳): Nav-Q:自動運転車の衝突回避ナビゲーションのための量子深部強化学習
- Authors: Akash Sinha, Antonio Macaluso, Matthias Klusch
- Abstract要約: 自動運転車の衝突回避ナビゲーションのための量子支援型Deep Reinforcement LearningアルゴリズムであるNav-Qを提案する。
Nav-Qはアクター批判的アプローチに基づいており、批判者は近距離量子デバイスに適したハイブリッド量子古典的アルゴリズムを用いて実装される。
CARLAドライビングシミュレータを用いて,最先端DRL手法の評価のためのデファクト標準ベンチマークであるNav-Qの性能を評価する。
- 参考スコア(独自算出の注目度): 2.532202013576547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of collision-free navigation (CFN) of self-driving cars is an
NP-hard problem usually tackled using Deep Reinforcement Learning (DRL). While
DRL methods have proven to be effective, their implementation requires
substantial computing resources and extended training periods to develop a
robust agent. On the other hand, quantum reinforcement learning has recently
demonstrated faster convergence and improved stability in simple,
non-real-world environments.
In this work, we propose Nav-Q, the first quantum-supported DRL algorithm for
CFN of self-driving cars, that leverages quantum computation for improving the
training performance without the requirement for onboard quantum hardware.
Nav-Q is based on the actor-critic approach, where the critic is implemented
using a hybrid quantum-classical algorithm suitable for near-term quantum
devices. We assess the performance of Nav-Q using the CARLA driving simulator,
a de facto standard benchmark for evaluating state-of-the-art DRL methods. Our
empirical evaluations showcase that Nav-Q surpasses its classical counterpart
in terms of training stability and, in certain instances, with respect to the
convergence rate. Furthermore, we assess Nav-Q in relation to effective
dimension, unveiling that the incorporation of a quantum component results in a
model with greater descriptive power compared to classical baselines. Finally,
we evaluate the performance of Nav-Q using noisy quantum simulation, observing
that the quantum noise deteriorates the training performances but enhances the
exploratory tendencies of the agent during training.
- Abstract(参考訳): 自動運転車の衝突なしナビゲーション(cfn)のタスクは、通常深層強化学習(drl)を使用して取り組むnp問題である。
DRL法は有効であることが証明されているが、その実装には堅牢なエージェントを開発するために、かなりの計算資源と訓練期間が必要とされる。
一方で、量子強化学習は、単純な非現実環境において、より高速な収束と安定性の向上を最近実証している。
本研究では,自動運転車用CFNのための最初の量子支援型DRLアルゴリズムであるNav-Qを提案する。
Nav-Qはアクター批判的アプローチに基づいており、批判者は短期量子デバイスに適したハイブリッド量子古典アルゴリズムを用いて実装される。
CARLAドライビングシミュレータを用いて,最先端DRL手法の評価のためのデファクト標準ベンチマークであるNav-Qの性能を評価する。
我々の経験的評価では、Nav-Qはトレーニングの安定性やコンバージェンス率に関して古典的よりも優れている。
さらに,Nav-Qを有効次元で評価し,量子部品の組み込みにより,古典的ベースラインよりも説明力の高いモデルが得られることを明らかにした。
最後に、ノイズ量子シミュレーションを用いてNav-Qの性能を評価し、量子ノイズがトレーニング性能を劣化させるが、トレーニング中のエージェントの探索傾向を高める。
関連論文リスト
- A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Reservoir Computing via Quantum Recurrent Neural Networks [0.5999777817331317]
既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-04T17:30:46Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Quantum Deep Reinforcement Learning for Robot Navigation Tasks [2.6999000177990924]
ハイブリッド量子古典的強化学習装置における量子回路は、複数のロボットナビゲーションシナリオにおいて最適なポリシーを学習可能であることを示す。
応用量子回路は、トレーニング可能なパラメータの数に等しくなると、古典的ニューラルネットワークのベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2022-02-24T16:26:23Z) - Quantum Architecture Search via Continual Reinforcement Learning [0.0]
本稿では,量子回路アーキテクチャを構築するための機械学習手法を提案する。
本稿では、この回路設計課題に取り組むために、ディープラーニング(PPR-DQL)フレームワークを用いた確率的ポリシー再利用を提案する。
論文 参考訳(メタデータ) (2021-12-10T19:07:56Z) - MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark [53.12623958951738]
MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
論文 参考訳(メタデータ) (2021-11-05T23:38:44Z) - Short Quantum Circuits in Reinforcement Learning Policies for the
Vehicle Routing Problem [0.0]
従来のアテンションヘッド層の代わりに簡単な量子回路を使用でき、性能を維持できることを示す。
我々は,我々のモデルを,強化学習における量子コンピューティングの役割をさらに研究するための,スケールアップ可能なプロトタイプとみなす。
論文 参考訳(メタデータ) (2021-09-15T18:02:17Z) - QuantumNAS: Noise-Adaptive Search for Robust Quantum Circuits [26.130594925642143]
ノイズノイズは、NISQ(Noisy Intermediate-Scale Quantum)コンピュータにおける鍵となる課題である。
可変回路と量子ビットマッピングのノイズ適応型共同研究のための,最初の包括的なフレームワークであるQuantumNASを提案し,実験的に実装した。
QMLタスクでは、QuantumNASは95%以上の2クラス、85%の4クラス、実際の量子コンピュータ上での10クラスの分類精度を初めて証明した。
論文 参考訳(メタデータ) (2021-07-22T17:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。