論文の概要: Decision-making for Autonomous Vehicles on Highway: Deep Reinforcement
Learning with Continuous Action Horizon
- arxiv url: http://arxiv.org/abs/2008.11852v1
- Date: Wed, 26 Aug 2020 22:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 20:53:56.542580
- Title: Decision-making for Autonomous Vehicles on Highway: Deep Reinforcement
Learning with Continuous Action Horizon
- Title(参考訳): 高速道路における自動運転車の意思決定--連続行動ホライゾンを用いた深層強化学習
- Authors: Teng Liu, Hong Wang, Bing Lu, Jun Li, Dongpu Cao
- Abstract要約: 本稿では,高速道路における連続水平決定問題に対処するために,深部強化学習(DRL)手法を用いる。
エゴ自動車両の走行目標は、衝突することなく効率的でスムーズなポリシーを実行することである。
PPO-DRLに基づく意思決定戦略は、最適性、学習効率、適応性など、複数の観点から推定される。
- 参考スコア(独自算出の注目度): 14.059728921828938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision-making strategy for autonomous vehicles de-scribes a sequence of
driving maneuvers to achieve a certain navigational mission. This paper
utilizes the deep reinforcement learning (DRL) method to address the
continuous-horizon decision-making problem on the highway. First, the vehicle
kinematics and driving scenario on the freeway are introduced. The running
objective of the ego automated vehicle is to execute an efficient and smooth
policy without collision. Then, the particular algorithm named proximal policy
optimization (PPO)-enhanced DRL is illustrated. To overcome the challenges in
tardy training efficiency and sample inefficiency, this applied algorithm could
realize high learning efficiency and excellent control performance. Finally,
the PPO-DRL-based decision-making strategy is estimated from multiple
perspectives, including the optimality, learning efficiency, and adaptability.
Its potential for online application is discussed by applying it to similar
driving scenarios.
- Abstract(参考訳): 自動運転車の意思決定戦略は、特定の航法ミッションを達成するための一連の運転操作を規定する。
本稿では,高速道路における連続水平決定問題に対処するために,深部強化学習(DRL)手法を用いる。
まず、高速道路の車両運動学と運転シナリオを紹介する。
egoの運用目的は、衝突することなく効率的で円滑な方針を実行することである。
次に、PPO(proximal policy optimization)拡張DRLと呼ばれる特定のアルゴリズムを例示する。
学習効率とサンプル非効率の課題を克服するため,本アルゴリズムは高い学習効率と優れた制御性能を実現することができた。
最後に、PPO-DRLに基づく意思決定戦略を、最適性、学習効率、適応性など、複数の観点から推定する。
オンラインアプリケーションの可能性については、同様の運転シナリオに適用することで論じられている。
関連論文リスト
- Rethinking Optimal Transport in Offline Reinforcement Learning [64.56896902186126]
オフラインの強化学習では、データはさまざまな専門家によって提供され、一部は準最適である。
効率的なポリシを抽出するには、データセットから最高の振る舞いを強調する必要がある。
本稿では,各状態に対する最善の専門家行動の公平な分布に状態をマッピングするポリシーを見つけることを目的としたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T22:36:43Z) - HighwayLLM: Decision-Making and Navigation in Highway Driving with RL-Informed Language Model [5.4854443795779355]
本研究は,大型言語モデル(LLM)の推論能力を利用して,エゴ車両の航法における将来の道程を予測する新しい手法であるHighwayLLMを提案する。
我々のアプローチは、事前訓練された強化学習(RL)モデルも利用して、適切なメタレベルアクションに関する意思決定を行い、ハイレベルプランナーとして機能する。
論文 参考訳(メタデータ) (2024-05-22T11:32:37Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Action and Trajectory Planning for Urban Autonomous Driving with
Hierarchical Reinforcement Learning [1.3397650653650457]
本稿では,階層型強化学習法(atHRL)を用いた行動・軌道プランナを提案する。
我々は、複雑な都市運転シナリオにおける広範な実験を通して、atHRLの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2023-06-28T07:11:02Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - Integrated Decision and Control: Towards Interpretable and Efficient
Driving Intelligence [13.589285628074542]
自動走行車のための解釈可能かつ効率的な意思決定・制御フレームワークを提案する。
駆動タスクを階層的に構造化されたマルチパス計画と最適追跡に分解する。
その結果,オンライン計算の効率性や交通効率,安全性などの運転性能が向上した。
論文 参考訳(メタデータ) (2021-03-18T14:43:31Z) - Decision-making Strategy on Highway for Autonomous Vehicles using Deep
Reinforcement Learning [6.298084785377199]
高速道路のオーバーテイク行動に対処するため、自動車の深層強化学習(DRL)対応意思決定ポリシーを構築した。
これらの車両を制御するために階層的な制御フレームワークが提示され、上層部が運転決定を管理することを示す。
DDQNをベースとしたオーバーテイク政策は、ハイウェイ運転のタスクを効率的かつ安全に達成することができた。
論文 参考訳(メタデータ) (2020-07-16T23:41:48Z) - Dueling Deep Q Network for Highway Decision Making in Autonomous
Vehicles: A Case Study [9.602219035367066]
本研究は、深部強化学習(DRL)を用いた自動運転車の高速道路意思決定戦略を最適化するものである。
最適制御問題として、自動車両のオーバーテイク決定問題を定式化する。
シミュレーションの結果,エゴ車両は学習および訓練後の運転課題を安全かつ効率的に達成できることが判明した。
論文 参考訳(メタデータ) (2020-07-16T14:09:20Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。