論文の概要: Don't Get Yourself into Trouble! Risk-aware Decision-Making for
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2106.04625v1
- Date: Tue, 8 Jun 2021 18:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 15:01:29.618111
- Title: Don't Get Yourself into Trouble! Risk-aware Decision-Making for
Autonomous Vehicles
- Title(参考訳): トラブルに陥るな!
自動運転車のリスク対応意思決定
- Authors: Kasra Mokhtari, Alan R. Wagner
- Abstract要約: 1)望ましくない結果の確率と、2)望ましくない結果がどの程度望ましくないかを見積もる(損失)。
我々は、高レベルリスクベースの経路計画と強化学習に基づく低レベル制御を統合する、自動運転車のリスクベースの意思決定フレームワークを開発した。
この作業は、自動運転車がいつの日か回避し、危険な状況に対処することによって、安全性を向上させることができる。
- 参考スコア(独自算出の注目度): 4.94950858749529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk is traditionally described as the expected likelihood of an undesirable
outcome, such as collisions for autonomous vehicles. Accurately predicting risk
or potentially risky situations is critical for the safe operation of
autonomous vehicles. In our previous work, we showed that risk could be
characterized by two components: 1) the probability of an undesirable outcome
and 2) an estimate of how undesirable the outcome is (loss). This paper is an
extension to our previous work. In this paper, using our trained deep
reinforcement learning model for navigating around crowds, we developed a
risk-based decision-making framework for the autonomous vehicle that integrates
the high-level risk-based path planning with the reinforcement learning-based
low-level control. We evaluated our method in a high-fidelity simulation such
as CARLA. This work can improve safety by allowing an autonomous vehicle to one
day avoid and react to risky situations.
- Abstract(参考訳): リスクは伝統的に、自動運転車の衝突のような望ましくない結果の予想される可能性として説明される。
自動運転車の安全な運転には、リスクや潜在的リスクの正確な予測が不可欠である。
前回の研究では,1)望ましくない結果の確率と,2)望ましくない結果がどの程度望ましくないかを見積もる(損失)という2つの要素によってリスクが特徴づけられることを示した。
本論文は,前回の研究の延長である。
本稿では,訓練された深層強化学習モデルを用いて,高レベルリスクベースの経路計画と低レベル制御を統合した自動運転車のリスクベースの意思決定フレームワークを開発した。
CARLAなどの高忠実度シミュレーションで本手法の評価を行った。
この作業は、自動運転車がリスクのある状況を避けて対応できるようにすることで、安全性を向上させることができる。
関連論文リスト
- CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Risk-anticipatory autonomous driving strategies considering vehicles' weights, based on hierarchical deep reinforcement learning [12.014977175887767]
本研究では,周囲の車両の重量を考慮し,リスク予測に基づく自律運転戦略を開発する。
リスクフィールド理論に基づいて、周囲の車両重量を統合するリスクインジケータを提案し、自律運転決定に組み込んだ。
衝突時の潜在的な衝突エネルギーを示す指標を新たに提案し, AV駆動方式の性能評価を行った。
論文 参考訳(メタデータ) (2023-12-27T06:03:34Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - How to Learn from Risk: Explicit Risk-Utility Reinforcement Learning for
Efficient and Safe Driving Strategies [1.496194593196997]
本稿では,自動運転車の挙動を安全かつ効率的に解釈できるSafeDQNを提案する。
SafeDQNは様々なシナリオの解釈可能かつ安全な運転ポリシーを発見し、最先端の衛生技術がリスクと実用性の両方を評価するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2022-03-16T05:51:22Z) - Risk Measurement, Risk Entropy, and Autonomous Driving Risk Modeling [0.0]
本稿では、自律運転シナリオにおける新たな技術的困難、新しいアイデア、リスクモデリング手法について考察する。
コンピュータシミュレーション環境下でのリスクアセスメントと自動車保険の価格を実現するための技術的実現可能性を提供する。
論文 参考訳(メタデータ) (2021-09-15T11:00:18Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。