論文の概要: Risk-Aware High-level Decisions for Automated Driving at Occluded
Intersections with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2004.04450v1
- Date: Thu, 9 Apr 2020 09:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:17:39.483549
- Title: Risk-Aware High-level Decisions for Automated Driving at Occluded
Intersections with Reinforcement Learning
- Title(参考訳): 強化学習を伴う付加区間における自動走行のリスク対応高レベル決定
- Authors: Danial Kamran, Carlos Fernandez Lopez, Martin Lauer, Christoph Stiller
- Abstract要約: 信号のない交差点を走行するための高レベル動作を学習するための一般的なリスク認識型DQNアプローチを提案する。
提案された状態表現は、マルチレーンシナリオで使用できるレーンベースの情報を提供する。
また,衝突事故だけでなく,危険事態を罰するリスクベース報酬関数を提案する。
- 参考スコア(独自算出の注目度): 16.69903761648675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning is nowadays a popular framework for solving different
decision making problems in automated driving. However, there are still some
remaining crucial challenges that need to be addressed for providing more
reliable policies. In this paper, we propose a generic risk-aware DQN approach
in order to learn high level actions for driving through unsignalized occluded
intersections. The proposed state representation provides lane based
information which allows to be used for multi-lane scenarios. Moreover, we
propose a risk based reward function which punishes risky situations instead of
only collision failures. Such rewarding approach helps to incorporate risk
prediction into our deep Q network and learn more reliable policies which are
safer in challenging situations. The efficiency of the proposed approach is
compared with a DQN learned with conventional collision based rewarding scheme
and also with a rule-based intersection navigation policy. Evaluation results
show that the proposed approach outperforms both of these methods. It provides
safer actions than collision-aware DQN approach and is less overcautious than
the rule-based policy.
- Abstract(参考訳): 強化学習は現在、自動運転におけるさまざまな意思決定問題を解決するためのフレームワークとして人気がある。
しかし、より信頼できるポリシーを提供するために対処すべき重要な課題が残っている。
本稿では,信号のない交差点を走行するための高レベル動作を学習するために,一般的なリスク対応DQNアプローチを提案する。
提案された状態表現はレーンベースの情報を提供し、マルチレーンシナリオに使用できる。
さらに,衝突失敗のみでなく,リスクのある状況を罰するリスクベースの報酬関数を提案する。
このような報奨的なアプローチは、リスク予測を私たちのディープQネットワークに組み込んで、より安全なより信頼性の高いポリシを学ぶ上で有効です。
提案手法の効率は,従来の衝突に基づく報酬方式で学習したdqnと,規則に基づく交差点案内方式と比較した。
評価の結果,提案手法はどちらの手法よりも優れていた。
衝突認識dqnアプローチよりも安全なアクションを提供し、ルールベースのポリシーよりも過度に注意を払わない。
関連論文リスト
- Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - High-level Decisions from a Safe Maneuver Catalog with Reinforcement
Learning for Safe and Cooperative Automated Merging [5.732271870257913]
統合シナリオにおける安全かつ協調的な自動運転のための効率的なRLに基づく意思決定パイプラインを提案する。
提案するRLエージェントは、車両状態履歴から協調運転者を効率よく識別し、対話的な操作を生成する。
論文 参考訳(メタデータ) (2021-07-15T15:49:53Z) - Minimizing Safety Interference for Safe and Comfortable Automated
Driving with Distributional Reinforcement Learning [3.923354711049903]
そこで本稿では,望ましい快適さと実用性に基づいて,実行時の保守性レベルを調整可能な適応ポリシーを学習するための分散強化学習フレームワークを提案する。
提案アルゴリズムは,認識ノイズが2倍高い場合にも信頼性を向上できるポリシを学習し,非閉塞交差点における自動マージと踏切の訓練構成を示す。
論文 参考訳(メタデータ) (2021-07-15T13:36:55Z) - Reinforcement Learning Based Safe Decision Making for Highway Autonomous
Driving [1.995792341399967]
マルチレーン・シングルエージェント環境での自動運転車の安全な意思決定方法を開発した。
提案手法は深層強化学習を用いて,安全な戦術的意思決定のためのハイレベルな方針を実現する。
論文 参考訳(メタデータ) (2021-05-13T19:17:30Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Towards Safe Policy Improvement for Non-Stationary MDPs [48.9966576179679]
多くの実世界の利害問題は非定常性を示し、利害関係が高ければ、偽の定常性仮定に関連するコストは受け入れがたい。
我々は、スムーズに変化する非定常的な意思決定問題に対して、高い信頼性で安全性を確保するための第一歩を踏み出します。
提案手法は,時系列解析を用いたモデルフリー強化学習の合成により,セルドンアルゴリズムと呼ばれる安全なアルゴリズムを拡張した。
論文 参考訳(メタデータ) (2020-10-23T20:13:51Z) - Reinforcement Learning based Control of Imitative Policies for
Near-Accident Driving [41.54021613421446]
事故に近いシナリオでは、車両の動作の微妙な変化でさえ、劇的に異なる結果をもたらす可能性がある。
本稿では、ILが個別駆動モードで学んだ低レベルポリシーと、異なる駆動モード間で切り替えるRLで学んだ高レベルポリシーからなる階層的強化と模倣学習(H-ReIL)アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-01T01:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。