論文の概要: Learning Interaction-aware Guidance Policies for Motion Planning in
Dense Traffic Scenarios
- arxiv url: http://arxiv.org/abs/2107.04538v1
- Date: Fri, 9 Jul 2021 16:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:41:58.569976
- Title: Learning Interaction-aware Guidance Policies for Motion Planning in
Dense Traffic Scenarios
- Title(参考訳): 交通シナリオにおける行動計画のための対話型ガイダンスの学習
- Authors: Bruno Brito, Achin Agarwal and Javier Alonso-Mora
- Abstract要約: 本稿では,高密度交通シナリオにおける対話型モーションプランニングのための新しい枠組みを提案する。
我々は,他車両の協調性に関する国際的ガイダンスを提供するインタラクション対応政策であるDeep Reinforcement Learning (RL) を通じて学習することを提案する。
学習されたポリシーは、ローカル最適化ベースのプランナーを推論し、対話的な振る舞いで誘導し、他の車両が収まらない場合に安全を維持しながら、密集したトラフィックに積極的にマージする。
- 参考スコア(独自算出の注目度): 8.484564880157148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous navigation in dense traffic scenarios remains challenging for
autonomous vehicles (AVs) because the intentions of other drivers are not
directly observable and AVs have to deal with a wide range of driving
behaviors. To maneuver through dense traffic, AVs must be able to reason how
their actions affect others (interaction model) and exploit this reasoning to
navigate through dense traffic safely. This paper presents a novel framework
for interaction-aware motion planning in dense traffic scenarios. We explore
the connection between human driving behavior and their velocity changes when
interacting. Hence, we propose to learn, via deep Reinforcement Learning (RL),
an interaction-aware policy providing global guidance about the cooperativeness
of other vehicles to an optimization-based planner ensuring safety and
kinematic feasibility through constraint satisfaction. The learned policy can
reason and guide the local optimization-based planner with interactive behavior
to pro-actively merge in dense traffic while remaining safe in case the other
vehicles do not yield. We present qualitative and quantitative results in
highly interactive simulation environments (highway merging and unprotected
left turns) against two baseline approaches, a learning-based and an
optimization-based method. The presented results demonstrate that our method
significantly reduces the number of collisions and increases the success rate
with respect to both learning-based and optimization-based baselines.
- Abstract(参考訳): 密集した交通シナリオにおける自律ナビゲーションは、他のドライバーの意図が直接観察不可能であり、AVは幅広い運転行動を扱う必要があるため、自動運転車(AV)にとって依然として困難である。
密集した交通を操るために、avは彼らの行動が他人(相互作用モデル)にどう影響するかを判断し、この推論を利用して密集した交通を安全にナビゲートする必要がある。
本稿では,高密度交通シナリオにおける対話型動き計画のための新しい枠組みを提案する。
人間の運転行動と相互作用時の速度変化との関係について検討する。
そこで我々は,制約満足度による安全性と運動性の実現性を保証する最適化型プランナーに,他車両の協調性に関するグローバルガイダンスを提供するインタラクション対応政策であるDeep Reinforcement Learning (RL)を通じて学習することを提案する。
学習されたポリシーは、ローカル最適化ベースのプランナーを推論し、対話的な振る舞いで誘導し、他の車両が収まらない場合に安全を維持しながら、高密度トラフィックに積極的にマージする。
我々は,高度にインタラクティブなシミュレーション環境(ハイウェイマージとアンプロテクト左旋回)において,学習ベースと最適化ベースの2つのベースラインアプローチに対して定性的かつ定量的な結果を示す。
本手法は,学習ベースと最適化ベースの両方において,衝突数を大幅に削減し,成功率を増加させることを示す。
関連論文リスト
- A Conflicts-free, Speed-lossless KAN-based Reinforcement Learning Decision System for Interactive Driving in Roundabouts [17.434924472015812]
本稿では,ラウンドアバウンドにおける安全かつ効率的な運転行動を促進するための学習アルゴリズムを提案する。
提案アルゴリズムは、複雑なマルチサイクルラウンドアバウトにおける安全かつ効率的な運転戦略を学習するために、深層Q-ラーニングネットワークを用いる。
その結果,本システムは安定したトレーニングプロセスを維持しつつ,安全かつ効率的な運転を実現することができた。
論文 参考訳(メタデータ) (2024-08-15T16:10:25Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - RLPG: Reinforcement Learning Approach for Dynamic Intra-Platoon Gap
Adaptation for Highway On-Ramp Merging [14.540226579203207]
小隊は、非常に近い距離で一緒に移動する車両のグループを指す。
近年の研究では、高規格道路と高架道路の合流時の交通流に対する極小小小高架区間の影響が明らかにされている。
本稿では,各小隊員の小隊内ギャップを適応的に調整し,交通流を最大化する新しい補強学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-07T07:33:54Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Learning to Help Emergency Vehicles Arrive Faster: A Cooperative
Vehicle-Road Scheduling Approach [24.505687255063986]
車両中心のスケジューリングアプローチは、緊急車両の最適経路を推奨する。
道路中心のスケジューリングアプローチは、交通状況を改善し、EVが交差点を通過するための優先度を高めることを目的としている。
本稿では,リアルタイム経路計画モジュールと協調交通信号制御モジュールを含む協調型VehIcle-roaDスケジューリング手法であるLEVIDを提案する。
論文 参考訳(メタデータ) (2022-02-20T10:25:15Z) - A Cooperation-Aware Lane Change Method for Autonomous Vehicles [16.937363492078426]
本稿では,車両間の相互作用を利用した協調型車線変更手法を提案する。
まず,AVと他者間の協調の可能性を探るため,対話的な軌道予測手法を提案する。
次に,モデル予測制御(MPC)に基づく動作計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-26T04:45:45Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。