論文の概要: Behavior Planning at Urban Intersections through Hierarchical
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2011.04697v1
- Date: Mon, 9 Nov 2020 19:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:53:28.556450
- Title: Behavior Planning at Urban Intersections through Hierarchical
Reinforcement Learning
- Title(参考訳): 階層的強化学習による交差点における行動計画
- Authors: Zhiqian Qiao, Jeff Schneider and John M. Dolan
- Abstract要約: 本研究では,都市環境の階層構造を用いた自律走行計画を行うことができる強化学習(RL)に基づく行動計画構造を提案する。
我々のアルゴリズムは、車線封鎖やエゴ車前方の遅延による交差点に近づく際に、車線変更の可能な方向から左に曲がるタイミングや、車線変更の可能性など、規則に基づく決定方法よりも優れている。
また,提案手法は従来のRL法よりも高速に最適方針に収束することを示した。
- 参考スコア(独自算出の注目度): 25.50973559614565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For autonomous vehicles, effective behavior planning is crucial to ensure
safety of the ego car. In many urban scenarios, it is hard to create
sufficiently general heuristic rules, especially for challenging scenarios that
some new human drivers find difficult. In this work, we propose a behavior
planning structure based on reinforcement learning (RL) which is capable of
performing autonomous vehicle behavior planning with a hierarchical structure
in simulated urban environments. Application of the hierarchical structure
allows the various layers of the behavior planning system to be satisfied. Our
algorithms can perform better than heuristic-rule-based methods for elective
decisions such as when to turn left between vehicles approaching from the
opposite direction or possible lane-change when approaching an intersection due
to lane blockage or delay in front of the ego car. Such behavior is hard to
evaluate as correct or incorrect, but for some aggressive expert human drivers
handle such scenarios effectively and quickly. On the other hand, compared to
traditional RL methods, our algorithm is more sample-efficient, due to the use
of a hybrid reward mechanism and heuristic exploration during the training
process. The results also show that the proposed method converges to an optimal
policy faster than traditional RL methods.
- Abstract(参考訳): 自動運転車では、エゴカーの安全性を確保するためには効果的な行動計画が不可欠である。
多くの都市シナリオでは、特に新しい人間のドライバーが困難であるような挑戦的なシナリオに対して、十分に一般的なヒューリスティックなルールを作成するのは難しい。
本研究では,シミュレーション都市環境において階層構造を持つ自律車両行動計画が可能な強化学習(rl)に基づく行動計画構造を提案する。
階層構造の適用により、行動計画システムの様々な層を満足させることができる。
提案アルゴリズムは,車線閉塞やエゴ車前方の遅延による交差点に近づく際に,車線変更が可能な車線変更が可能な車線間を左折するといった,ヒューリスティックルールに基づく選択決定法よりも優れている。
このような行動は正しくも正しくも評価するのは難しいが、攻撃的な専門家の人間ドライバーはそのようなシナリオを効果的に迅速に扱う。
一方,従来のRL法と比較して,本アルゴリズムは学習過程において,ハイブリッド報酬機構とヒューリスティック探索を用いることにより,よりサンプリング効率がよい。
また,提案手法は従来のRL法よりも高速に最適方針に収束することを示した。
関連論文リスト
- Let Hybrid A* Path Planner Obey Traffic Rules: A Deep Reinforcement Learning-Based Planning Framework [0.0]
本研究では、ハイブリッドA*経路計画のような低レベルアルゴリズムと深層強化学習(DRL)を組み合わせることで、高レベルな意思決定を行う。
ハイブリッドA*プランナーは、モデル予測コントローラ(MPC)によって実行される衝突のない軌道を生成することができる
さらに、DRLアルゴリズムは、選択した時間内にレーン変更コマンドを一貫性を保つことができる。
論文 参考訳(メタデータ) (2024-07-01T12:00:10Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Action and Trajectory Planning for Urban Autonomous Driving with
Hierarchical Reinforcement Learning [1.3397650653650457]
本稿では,階層型強化学習法(atHRL)を用いた行動・軌道プランナを提案する。
我々は、複雑な都市運転シナリオにおける広範な実験を通して、atHRLの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2023-06-28T07:11:02Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - Motion Planning for Autonomous Vehicles in the Presence of Uncertainty
Using Reinforcement Learning [0.0]
不確実性の下での運動計画は、自動運転車の開発における主要な課題の1つである。
最悪の事例を最適化して不確実性を管理するための強化学習に基づくソリューションを提案する。
提案手法は従来のRLアルゴリズムよりもはるかに優れた動作計画行動を示し,人間の運転スタイルと相容れない動作を示す。
論文 参考訳(メタデータ) (2021-10-01T20:32:25Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z) - Decision-making for Autonomous Vehicles on Highway: Deep Reinforcement
Learning with Continuous Action Horizon [14.059728921828938]
本稿では,高速道路における連続水平決定問題に対処するために,深部強化学習(DRL)手法を用いる。
エゴ自動車両の走行目標は、衝突することなく効率的でスムーズなポリシーを実行することである。
PPO-DRLに基づく意思決定戦略は、最適性、学習効率、適応性など、複数の観点から推定される。
論文 参考訳(メタデータ) (2020-08-26T22:49:27Z) - A Self-Supervised Learning Approach to Rapid Path Planning for Car-Like
Vehicles Maneuvering in Urban Environment [3.867363075280544]
本稿では、勾配に基づく自己教師付き学習アルゴリズムを用いて、実現可能な経路を予測する、新しいニューラルネットワークによる経路計画手法を提案する。
このアプローチは過去に得られた経験を強く活用し、操舵角度が制限された車のような車両の実行可能な操縦計画を迅速に得る。
論文 参考訳(メタデータ) (2020-03-02T14:48:29Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z) - Intelligent Roundabout Insertion using Deep Reinforcement Learning [68.8204255655161]
本稿では,多忙なラウンドアバウンドの入場を交渉できる演習計画モジュールを提案する。
提案されたモジュールは、トレーニングされたニューラルネットワークに基づいて、操作の全期間にわたって、ラウンドアバウンドに入るタイミングと方法を予測する。
論文 参考訳(メタデータ) (2020-01-03T11:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。