論文の概要: Risk-Constrained Interactive Safety under Behavior Uncertainty for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2102.03053v1
- Date: Fri, 5 Feb 2021 08:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:42:26.775442
- Title: Risk-Constrained Interactive Safety under Behavior Uncertainty for
Autonomous Driving
- Title(参考訳): 自律運転における行動不確実性を考慮したリスク制約型インタラクティブセーフティ
- Authors: Julian Bernhard and Alois Knoll
- Abstract要約: 許可された計画領域を制限する安全封筒は、行動の不確実性の存在下で解釈可能な安全性をもたらす。
人間は、安全封筒に違反する確率的リスクを受け入れることによって、密集した交通における安全と効率のバランスをとる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Balancing safety and efficiency when planning in dense traffic is
challenging. Interactive behavior planners incorporate prediction uncertainty
and interactivity inherent to these traffic situations. Yet, their use of
single-objective optimality impedes interpretability of the resulting safety
goal. Safety envelopes which restrict the allowed planning region yield
interpretable safety under the presence of behavior uncertainty, yet, they
sacrifice efficiency in dense traffic due to conservative driving. Studies show
that humans balance safety and efficiency in dense traffic by accepting a
probabilistic risk of violating the safety envelope. In this work, we adopt
this safety objective for interactive planning. Specifically, we formalize this
safety objective, present the Risk-Constrained Robust Stochastic Bayesian Game
modeling interactive decisions satisfying a maximum risk of violating a safety
envelope under uncertainty of other traffic participants' behavior and solve it
using our variant of Multi-Agent Monte Carlo Tree Search. We demonstrate in
simulation that our approach outperforms baselines approaches, and by reaching
the specified violation risk level over driven simulation time, provides an
interpretable and tunable safety objective for interactive planning.
- Abstract(参考訳): 密な交通を計画する際の安全と効率のバランスをとることは困難です。
インタラクティブな行動プランナーは、これらの交通状況に固有の予測の不確実性と相互作用を組み込む。
しかし、単目的最適性の使用は、結果として生じる安全目標の解釈可能性を妨げる。
許可された計画地域を制限する安全封筒は、行動の不確実性の存在下で解釈可能な安全性をもたらしますが、保守的な運転による密集した交通の効率を犠牲にします。
研究によると、人間は高密度交通における安全と効率のバランスを保ち、安全封筒に違反する確率的リスクを受け入れる。
本研究では,この安全目標を対話型計画に適用する。
具体的には,安全目標を定式化し,他の交通参加者の行動の不確実性の下で安全包絡に違反するリスクを最大化するインタラクティブな決定を,マルチエージェントモンテカルロ木探索を用いて解決する。
提案手法がベースラインよりも優れていることをシミュレーションで実証し,シミュレーション時間よりも特定の違反リスクレベルに達することで,対話型計画のための解釈可能で調整可能な安全性目標を提供する。
関連論文リスト
- Enhanced Safety in Autonomous Driving: Integrating Latent State Diffusion Model for End-to-End Navigation [5.928213664340974]
本研究は自動運転の制御最適化問題における安全性問題に対処する。
本稿では,条件付きバリュー・アット・リスクに基づくソフトアクター批判を利用して,ポリシー最適化のための新しいモデルベースアプローチを提案する。
本手法では, 安全探索を誘導する最悪のアクターを導入し, 予測不可能なシナリオにおいても, 安全要件の厳密な遵守を確保する。
論文 参考訳(メタデータ) (2024-07-08T18:32:40Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Uniformly Safe RL with Objective Suppression for Multi-Constraint Safety-Critical Applications [73.58451824894568]
広く採用されているCMDPモデルは予測のリスクを制約しており、長い尾の州で危険な行動を起こす余地がある。
安全クリティカルな領域では、そのような行動は破滅的な結果をもたらす可能性がある。
本稿では,目標を最大化するタスク報酬を適応的に抑制する新しい手法であるObjective Suppressionを提案する。
論文 参考訳(メタデータ) (2024-02-23T23:22:06Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Fail-Safe Adversarial Generative Imitation Learning [9.594432031144716]
本稿では, 安全な生成連続ポリシー, エンドツーエンドの生成逆トレーニング, 最悪の場合の安全性保証を, クローズドフォームの確率密度/勾配で実現する安全層を提案する。
安全層は、すべてのアクションを安全なアクションの集合にマッピングし、変量式と密度の測定値の加算率を使用する。
実世界のドライバーのインタラクションデータに関する実験では,提案手法のトラクタビリティ,安全性,模倣性能を実証的に実証した。
論文 参考訳(メタデータ) (2022-03-03T13:03:06Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Lyapunov-based uncertainty-aware safe reinforcement learning [0.0]
InReinforcement Learning (RL)は、様々なシーケンシャルな意思決定タスクに対して最適なポリシーを学ぶ上で、有望なパフォーマンスを示している。
多くの現実世界のRL問題において、主な目的を最適化する以外に、エージェントは一定のレベルの安全性を満たすことが期待されている。
これらの制約に対処するために,リャプノフに基づく不確実性を考慮した安全なRLモデルを提案する。
論文 参考訳(メタデータ) (2021-07-29T13:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。