論文の概要: Risk-Aware High-level Decisions for Automated Driving at Occluded
Intersections with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2004.04450v1
- Date: Thu, 9 Apr 2020 09:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:17:39.483549
- Title: Risk-Aware High-level Decisions for Automated Driving at Occluded
Intersections with Reinforcement Learning
- Title(参考訳): 強化学習を伴う付加区間における自動走行のリスク対応高レベル決定
- Authors: Danial Kamran, Carlos Fernandez Lopez, Martin Lauer, Christoph Stiller
- Abstract要約: 信号のない交差点を走行するための高レベル動作を学習するための一般的なリスク認識型DQNアプローチを提案する。
提案された状態表現は、マルチレーンシナリオで使用できるレーンベースの情報を提供する。
また,衝突事故だけでなく,危険事態を罰するリスクベース報酬関数を提案する。
- 参考スコア(独自算出の注目度): 16.69903761648675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning is nowadays a popular framework for solving different
decision making problems in automated driving. However, there are still some
remaining crucial challenges that need to be addressed for providing more
reliable policies. In this paper, we propose a generic risk-aware DQN approach
in order to learn high level actions for driving through unsignalized occluded
intersections. The proposed state representation provides lane based
information which allows to be used for multi-lane scenarios. Moreover, we
propose a risk based reward function which punishes risky situations instead of
only collision failures. Such rewarding approach helps to incorporate risk
prediction into our deep Q network and learn more reliable policies which are
safer in challenging situations. The efficiency of the proposed approach is
compared with a DQN learned with conventional collision based rewarding scheme
and also with a rule-based intersection navigation policy. Evaluation results
show that the proposed approach outperforms both of these methods. It provides
safer actions than collision-aware DQN approach and is less overcautious than
the rule-based policy.
- Abstract(参考訳): 強化学習は現在、自動運転におけるさまざまな意思決定問題を解決するためのフレームワークとして人気がある。
しかし、より信頼できるポリシーを提供するために対処すべき重要な課題が残っている。
本稿では,信号のない交差点を走行するための高レベル動作を学習するために,一般的なリスク対応DQNアプローチを提案する。
提案された状態表現はレーンベースの情報を提供し、マルチレーンシナリオに使用できる。
さらに,衝突失敗のみでなく,リスクのある状況を罰するリスクベースの報酬関数を提案する。
このような報奨的なアプローチは、リスク予測を私たちのディープQネットワークに組み込んで、より安全なより信頼性の高いポリシを学ぶ上で有効です。
提案手法の効率は,従来の衝突に基づく報酬方式で学習したdqnと,規則に基づく交差点案内方式と比較した。
評価の結果,提案手法はどちらの手法よりも優れていた。
衝突認識dqnアプローチよりも安全なアクションを提供し、ルールベースのポリシーよりも過度に注意を払わない。
関連論文リスト
- Optimal Transport-Assisted Risk-Sensitive Q-Learning [4.14360329494344]
本稿では,エージェントの安全性を高めるために最適な輸送理論を利用するリスク感受性Q-ラーニングアルゴリズムを提案する。
提案したアルゴリズムをGridworld環境で検証する。
論文 参考訳(メタデータ) (2024-06-17T17:32:25Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Uniformly Safe RL with Objective Suppression for Multi-Constraint Safety-Critical Applications [73.58451824894568]
広く採用されているCMDPモデルは予測のリスクを制約しており、長い尾の州で危険な行動を起こす余地がある。
安全クリティカルな領域では、そのような行動は破滅的な結果をもたらす可能性がある。
本稿では,目標を最大化するタスク報酬を適応的に抑制する新しい手法であるObjective Suppressionを提案する。
論文 参考訳(メタデータ) (2024-02-23T23:22:06Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Minimizing Safety Interference for Safe and Comfortable Automated
Driving with Distributional Reinforcement Learning [3.923354711049903]
そこで本稿では,望ましい快適さと実用性に基づいて,実行時の保守性レベルを調整可能な適応ポリシーを学習するための分散強化学習フレームワークを提案する。
提案アルゴリズムは,認識ノイズが2倍高い場合にも信頼性を向上できるポリシを学習し,非閉塞交差点における自動マージと踏切の訓練構成を示す。
論文 参考訳(メタデータ) (2021-07-15T13:36:55Z) - Reinforcement Learning Based Safe Decision Making for Highway Autonomous
Driving [1.995792341399967]
マルチレーン・シングルエージェント環境での自動運転車の安全な意思決定方法を開発した。
提案手法は深層強化学習を用いて,安全な戦術的意思決定のためのハイレベルな方針を実現する。
論文 参考訳(メタデータ) (2021-05-13T19:17:30Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。