論文の概要: Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications
- arxiv url: http://arxiv.org/abs/2105.13670v1
- Date: Fri, 28 May 2021 08:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 19:14:09.787837
- Title: Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications
- Title(参考訳): 連系レーダデータ通信を用いた自律走行車両の移動型深部強化学習フレームワーク
- Authors: Nguyen Quang Hieu, Dinh Thai Hoang, Dusit Niyato, Ping Wang, Dong In
Kim, and Chau Yuen
- Abstract要約: 本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
- 参考スコア(独自算出の注目度): 69.24726496448713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous Vehicles (AVs) are required to operate safely and efficiently in
dynamic environments. For this, the AVs equipped with Joint
Radar-Communications (JRC) functions can enhance the driving safety by
utilizing both radar detection and data communication functions. However,
optimizing the performance of the AV system with two different functions under
uncertainty and dynamic of surrounding environments is very challenging. In
this work, we first propose an intelligent optimization framework based on the
Markov Decision Process (MDP) to help the AV make optimal decisions in
selecting JRC operation functions under the dynamic and uncertainty of the
surrounding environment. We then develop an effective learning algorithm
leveraging recent advances of deep reinforcement learning techniques to find
the optimal policy for the AV without requiring any prior information about
surrounding environment. Furthermore, to make our proposed framework more
scalable, we develop a Transfer Learning (TL) mechanism that enables the AV to
leverage valuable experiences for accelerating the training process when it
moves to a new environment. Extensive simulations show that the proposed
transferable deep reinforcement learning framework reduces the obstacle miss
detection probability by the AV up to 67% compared to other conventional deep
reinforcement learning approaches.
- Abstract(参考訳): 自律走行車(AV)は、動的環境下で安全かつ効率的に運用するために必要である。
このため、JAR(Joint Radar-Communications)機能を備えたAVは、レーダー検出機能とデータ通信機能の両方を活用して運転安全性を高めることができる。
しかし, 周囲環境の不確実性と動的に異なる2つの機能を持つAVシステムの性能を最適化することは極めて困難である。
本稿では,まず,環境の動的・不確実性下でのjrc操作関数選択において,avが最適決定を行うのを助けるために,マルコフ決定過程(mdp)に基づくインテリジェント最適化フレームワークを提案する。
次に,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,環境に関する事前情報を必要とせず,avの最適方針を求める。
さらに,提案フレームワークをよりスケーラブルにするために,AVが新たな環境に移行する際のトレーニングプロセスの高速化に有用な経験を活用できるように,Transfer Learning(TL)メカニズムを開発した。
広範なシミュレーションにより,提案手法は従来の深層強化学習手法と比較して,avによる障害物検出確率を最大67%低減することが示された。
関連論文リスト
- OPTIMA: Optimized Policy for Intelligent Multi-Agent Systems Enables Coordination-Aware Autonomous Vehicles [9.41740133451895]
本研究は,協調自動運転タスクのための分散強化学習フレームワークOPTIMAを紹介する。
我々のゴールは、非常に複雑で混み合ったシナリオにおいて、CAVの汎用性と性能を改善することです。
論文 参考訳(メタデータ) (2024-10-09T03:28:45Z) - UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - Deep Reinforcement Learning for Autonomous Vehicle Intersection
Navigation [0.24578723416255746]
強化学習アルゴリズムは、これらの課題に対処するための有望なアプローチとして登場した。
そこで本研究では,低コスト単一エージェントアプローチを用いて,T断面積を効率よく安全にナビゲートする問題に対処する。
提案手法により,AVはT断面積を効果的にナビゲートし,走行遅延,衝突最小化,総コストの面で従来の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2023-09-30T10:54:02Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z) - Learning Interaction-aware Guidance Policies for Motion Planning in
Dense Traffic Scenarios [8.484564880157148]
本稿では,高密度交通シナリオにおける対話型モーションプランニングのための新しい枠組みを提案する。
我々は,他車両の協調性に関する国際的ガイダンスを提供するインタラクション対応政策であるDeep Reinforcement Learning (RL) を通じて学習することを提案する。
学習されたポリシーは、ローカル最適化ベースのプランナーを推論し、対話的な振る舞いで誘導し、他の車両が収まらない場合に安全を維持しながら、密集したトラフィックに積極的にマージする。
論文 参考訳(メタデータ) (2021-07-09T16:43:12Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Path Design and Resource Management for NOMA enhanced Indoor Intelligent
Robots [58.980293789967575]
通信可能な屋内知的ロボット(IR)サービスフレームワークを提案する。
室内レイアウトとチャネル状態を決定論的に記述できるレゴモデリング手法が提案されている。
調査対象の無線マップは、強化学習エージェントを訓練するための仮想環境として呼び出される。
論文 参考訳(メタデータ) (2020-11-23T21:45:01Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Using Deep Reinforcement Learning Methods for Autonomous Vessels in 2D
Environments [11.657524999491029]
本研究では,Q-Learningとニューラル表現を組み合わせた深層強化学習を用いて不安定性を回避する。
当社の方法論では,Q-Learningを深く使用して,アジャイル方法論のローリングウェーブプランニングアプローチと組み合わせています。
実験の結果,VVNの長距離ミッションの平均性能は55.31倍に向上した。
論文 参考訳(メタデータ) (2020-03-23T12:58:58Z) - A Multi-Agent Reinforcement Learning Approach For Safe and Efficient
Behavior Planning Of Connected Autonomous Vehicles [21.132777568170702]
我々は、コネクテッド・自動運転車のための情報共有型強化学習フレームワークを設計する。
提案手法は, 平均速度と快適性の観点から, CAV システムの効率性を向上させることができることを示す。
我々は,共用視覚が早期に障害物を観測し,交通渋滞を避けるために行動を起こすのに役立つことを示すために,障害物回避シナリオを構築した。
論文 参考訳(メタデータ) (2020-03-09T19:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。