論文の概要: Hybrid Deep Reinforcement Learning and Planning for Safe and Comfortable
Automated Driving
- arxiv url: http://arxiv.org/abs/2301.00650v1
- Date: Fri, 30 Dec 2022 15:19:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:46:54.605966
- Title: Hybrid Deep Reinforcement Learning and Planning for Safe and Comfortable
Automated Driving
- Title(参考訳): 安全・快適な自動運転のためのハイブリッド深部強化学習と計画
- Authors: Dikshant Gupta, Mathias Klusch
- Abstract要約: 我々は,POMDPにおける自動運転車の衝突のないナビゲーション問題を解決するためのハイブリッド学習手法であるHyLEARを提案する。
HyLEARは、中間学習を利用してハイブリッドプランナーの知識を深い強化学習者に埋め込んで、安全で快適な運転ポリシーを素早く決定する。
臨界交通シナリオのCARLA-CTS1ベンチマークによる実験結果から,HyLEARは安全・乗り心地において選択したベースラインを大幅に上回っていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a novel hybrid learning method, HyLEAR, for solving the
collision-free navigation problem for self-driving cars in POMDPs. HyLEAR
leverages interposed learning to embed knowledge of a hybrid planner into a
deep reinforcement learner to faster determine safe and comfortable driving
policies. In particular, the hybrid planner combines pedestrian path prediction
and risk-aware path planning with driving-behavior rule-based reasoning such
that the driving policies also take into account, whenever possible, the ride
comfort and a given set of driving-behavior rules. Our experimental performance
analysis over the CARLA-CTS1 benchmark of critical traffic scenarios revealed
that HyLEAR can significantly outperform the selected baselines in terms of
safety and ride comfort.
- Abstract(参考訳): 我々は,POMDPにおける自動運転車の衝突のないナビゲーション問題を解決するためのハイブリッド学習手法HyLEARを提案する。
HyLEARは、中間学習を利用してハイブリッドプランナーの知識を深い強化学習者に埋め込んで、安全で快適な運転ポリシーを素早く決定する。
特に、歩行者経路予測とリスク対応経路計画と、運転行動規範に基づく推論とを組み合わせたハイブリッドプランナーであって、運転方針が可能な限り、乗り心地及び所定の運転行動規則の組を考慮したものである。
臨界交通シナリオのCARLA-CTS1ベンチマークによる実験結果から,HyLEARは安全・乗り心地において選択したベースラインを大幅に上回っていることがわかった。
関連論文リスト
- A Conflicts-free, Speed-lossless KAN-based Reinforcement Learning Decision System for Interactive Driving in Roundabouts [17.434924472015812]
本稿では,ラウンドアバウンドにおける安全かつ効率的な運転行動を促進するための学習アルゴリズムを提案する。
提案アルゴリズムは、複雑なマルチサイクルラウンドアバウトにおける安全かつ効率的な運転戦略を学習するために、深層Q-ラーニングネットワークを用いる。
その結果,本システムは安定したトレーニングプロセスを維持しつつ,安全かつ効率的な運転を実現することができた。
論文 参考訳(メタデータ) (2024-08-15T16:10:25Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Risk-anticipatory autonomous driving strategies considering vehicles' weights, based on hierarchical deep reinforcement learning [12.014977175887767]
本研究では,周囲の車両の重量を考慮し,リスク予測に基づく自律運転戦略を開発する。
リスクフィールド理論に基づいて、周囲の車両重量を統合するリスクインジケータを提案し、自律運転決定に組み込んだ。
衝突時の潜在的な衝突エネルギーを示す指標を新たに提案し, AV駆動方式の性能評価を行った。
論文 参考訳(メタデータ) (2023-12-27T06:03:34Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Learning Interaction-aware Guidance Policies for Motion Planning in
Dense Traffic Scenarios [8.484564880157148]
本稿では,高密度交通シナリオにおける対話型モーションプランニングのための新しい枠組みを提案する。
我々は,他車両の協調性に関する国際的ガイダンスを提供するインタラクション対応政策であるDeep Reinforcement Learning (RL) を通じて学習することを提案する。
学習されたポリシーは、ローカル最適化ベースのプランナーを推論し、対話的な振る舞いで誘導し、他の車両が収まらない場合に安全を維持しながら、密集したトラフィックに積極的にマージする。
論文 参考訳(メタデータ) (2021-07-09T16:43:12Z) - Emergent Road Rules In Multi-Agent Driving Environments [84.82583370858391]
運転環境の要素が道路ルールの出現の原因となるかを分析する。
2つの重要な要因が雑音知覚とエージェントの空間密度であることがわかった。
我々の結果は、世界中の国々が安全で効率的な運転で合意した社会道路規則を実証的に支持する。
論文 参考訳(メタデータ) (2020-11-21T09:43:50Z) - Safe Trajectory Planning Using Reinforcement Learning for Self Driving [21.500697097095408]
自動運転車の軌道計画段階におけるモデルフリー強化学習を提案する。
このアプローチにより、自動運転のタスクに必要な安全で汎用的で快適な方法で車を操作することができることを示す。
論文 参考訳(メタデータ) (2020-11-09T19:29:14Z) - Behavioral decision-making for urban autonomous driving in the presence
of pedestrians using Deep Recurrent Q-Network [0.0]
都市環境における自動運転の意思決定は,道路構造の複雑化と多様な道路利用者の行動の不確実性により困難である。
本研究では,歩行者の存在下での都市環境における高レベル運転行動に対する深層強化学習に基づく意思決定手法を提案する。
提案手法は都市密集シナリオに対して評価し,ルールベース手法と比較し,DRQNに基づく運転行動決定器がルールベース手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T08:08:06Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。