論文の概要: Adaptive Decision Making at the Intersection for Autonomous Vehicles
Based on Skill Discovery
- arxiv url: http://arxiv.org/abs/2207.11724v1
- Date: Sun, 24 Jul 2022 11:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:30:14.092439
- Title: Adaptive Decision Making at the Intersection for Autonomous Vehicles
Based on Skill Discovery
- Title(参考訳): スキル発見に基づく自動運転車の交差点における適応的意思決定
- Authors: Xianqi He, Lin Yang, Chao Lu, Zirui Li, Jianwei Gong
- Abstract要約: 都市環境では、複雑で不確実な交差点のシナリオは自動運転にとって困難である。
安全性を確保するためには、他の車両とのインタラクションを処理できる適応的な意思決定システムを開発することが不可欠である。
知識を自律的に蓄積し再利用できる階層的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 13.134487965031667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In urban environments, the complex and uncertain intersection scenarios are
challenging for autonomous driving. To ensure safety, it is crucial to develop
an adaptive decision making system that can handle the interaction with other
vehicles. Manually designed model-based methods are reliable in common
scenarios. But in uncertain environments, they are not reliable, so
learning-based methods are proposed, especially reinforcement learning (RL)
methods. However, current RL methods need retraining when the scenarios change.
In other words, current RL methods cannot reuse accumulated knowledge. They
forget learned knowledge when new scenarios are given. To solve this problem,
we propose a hierarchical framework that can autonomously accumulate and reuse
knowledge. The proposed method combines the idea of motion primitives (MPs)
with hierarchical reinforcement learning (HRL). It decomposes complex problems
into multiple basic subtasks to reduce the difficulty. The proposed method and
other baseline methods are tested in a challenging intersection scenario based
on the CARLA simulator. The intersection scenario contains three different
subtasks that can reflect the complexity and uncertainty of real traffic flow.
After offline learning and testing, the proposed method is proved to have the
best performance among all methods.
- Abstract(参考訳): 都市環境において、複雑な交差点のシナリオは自動運転にとって困難である。
安全性を確保するためには,他の車両とのインタラクションを処理可能な適応的意思決定システムを開発することが重要である。
手動で設計されたモデルベースのメソッドは、一般的なシナリオでは信頼できる。
しかし、不確定な環境では信頼できないため、学習に基づく手法、特に強化学習(rl)法が提案されている。
しかし、現在のRLメソッドはシナリオが変更されたときに再トレーニングする必要がある。
言い換えれば、現在のRL法は蓄積した知識を再利用できない。
新しいシナリオが与えられたとき、学習した知識を忘れる。
この問題を解決するために,知識を自律的に蓄積・再利用できる階層型フレームワークを提案する。
提案手法は,動きプリミティブ(MP)と階層的強化学習(HRL)を組み合わせたものである。
複雑な問題を複数の基本的なサブタスクに分解して難易度を下げる。
提案手法および他のベースライン法は, CARLAシミュレータに基づく, 挑戦的な交差点シナリオで検証される。
交差点のシナリオは、実際の交通流の複雑さと不確実性を反映できる3つの異なるサブタスクを含んでいる。
オフライン学習とテストの結果,提案手法はすべての手法で最高の性能を示した。
関連論文リスト
- CIMRL: Combining IMitation and Reinforcement Learning for Safe Autonomous Driving [45.05135725542318]
CIMRL(imitation and Reinforcement Learning)アプローチは、模倣動作の先行と安全性の制約を活用することで、シミュレーションにおける運転ポリシーのトレーニングを可能にする。
RLと模倣を組み合わせることで, クローズドループシミュレーションと実世界の運転ベンチマークにおいて, 最先端の結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-06-13T07:31:29Z) - HOPE: A Reinforcement Learning-based Hybrid Policy Path Planner for Diverse Parking Scenarios [24.25807334214834]
多様な複雑な駐車シナリオを扱うために,Hybrid pOlicy Path PlannEr(HOPE)を導入する。
HOPEは強化学習エージェントをReeds-Shepp曲線に統合し、多様なシナリオにまたがる効果的な計画を可能にする。
本稿では,空間および障害物分布に基づく駐車シナリオの難易度を分類するための基準を提案する。
論文 参考訳(メタデータ) (2024-05-31T02:17:51Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Behavior Planning at Urban Intersections through Hierarchical
Reinforcement Learning [25.50973559614565]
本研究では,都市環境の階層構造を用いた自律走行計画を行うことができる強化学習(RL)に基づく行動計画構造を提案する。
我々のアルゴリズムは、車線封鎖やエゴ車前方の遅延による交差点に近づく際に、車線変更の可能な方向から左に曲がるタイミングや、車線変更の可能性など、規則に基づく決定方法よりも優れている。
また,提案手法は従来のRL法よりも高速に最適方針に収束することを示した。
論文 参考訳(メタデータ) (2020-11-09T19:23:26Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - Lane-Merging Using Policy-based Reinforcement Learning and
Post-Optimization [0.0]
政策に基づく強化学習と局所最適化を組み合わせることで,2つの方法論のベストプラクティスを育成,合成する。
車両数の異なる車線変更シナリオを用いて提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-03-06T12:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。