論文の概要: Risk-Constrained Interactive Safety under Behavior Uncertainty for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2102.03053v1
- Date: Fri, 5 Feb 2021 08:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:42:26.775442
- Title: Risk-Constrained Interactive Safety under Behavior Uncertainty for
Autonomous Driving
- Title(参考訳): 自律運転における行動不確実性を考慮したリスク制約型インタラクティブセーフティ
- Authors: Julian Bernhard and Alois Knoll
- Abstract要約: 許可された計画領域を制限する安全封筒は、行動の不確実性の存在下で解釈可能な安全性をもたらす。
人間は、安全封筒に違反する確率的リスクを受け入れることによって、密集した交通における安全と効率のバランスをとる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Balancing safety and efficiency when planning in dense traffic is
challenging. Interactive behavior planners incorporate prediction uncertainty
and interactivity inherent to these traffic situations. Yet, their use of
single-objective optimality impedes interpretability of the resulting safety
goal. Safety envelopes which restrict the allowed planning region yield
interpretable safety under the presence of behavior uncertainty, yet, they
sacrifice efficiency in dense traffic due to conservative driving. Studies show
that humans balance safety and efficiency in dense traffic by accepting a
probabilistic risk of violating the safety envelope. In this work, we adopt
this safety objective for interactive planning. Specifically, we formalize this
safety objective, present the Risk-Constrained Robust Stochastic Bayesian Game
modeling interactive decisions satisfying a maximum risk of violating a safety
envelope under uncertainty of other traffic participants' behavior and solve it
using our variant of Multi-Agent Monte Carlo Tree Search. We demonstrate in
simulation that our approach outperforms baselines approaches, and by reaching
the specified violation risk level over driven simulation time, provides an
interpretable and tunable safety objective for interactive planning.
- Abstract(参考訳): 密な交通を計画する際の安全と効率のバランスをとることは困難です。
インタラクティブな行動プランナーは、これらの交通状況に固有の予測の不確実性と相互作用を組み込む。
しかし、単目的最適性の使用は、結果として生じる安全目標の解釈可能性を妨げる。
許可された計画地域を制限する安全封筒は、行動の不確実性の存在下で解釈可能な安全性をもたらしますが、保守的な運転による密集した交通の効率を犠牲にします。
研究によると、人間は高密度交通における安全と効率のバランスを保ち、安全封筒に違反する確率的リスクを受け入れる。
本研究では,この安全目標を対話型計画に適用する。
具体的には,安全目標を定式化し,他の交通参加者の行動の不確実性の下で安全包絡に違反するリスクを最大化するインタラクティブな決定を,マルチエージェントモンテカルロ木探索を用いて解決する。
提案手法がベースラインよりも優れていることをシミュレーションで実証し,シミュレーション時間よりも特定の違反リスクレベルに達することで,対話型計画のための解釈可能で調整可能な安全性目標を提供する。
関連論文リスト
- Controllable Safety-Critical Closed-loop Traffic Simulation via Guided
Diffusion [100.4988219600854]
誘導拡散モデルに根ざした新しいクローズドループシミュレーションフレームワークを提案する。
提案手法は, 現実の条件を密にエミュレートする現実的なロングテールシナリオの生成と, 制御性の向上という, 二つの異なる利点をもたらす。
我々はNuScenesデータセットを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Active Uncertainty Reduction for Safe and Efficient Interaction
Planning: A Shielding-Aware Dual Control Approach [9.07774184840379]
本稿では,暗黙的二重制御パラダイムに基づく対話型動作計画における能動的不確実性低減を実現するアルゴリズムを提案する。
提案手法は, 動的プログラミングのサンプリングに基づく近似に依拠し, リアルタイム勾配最適化法で容易に解けるモデル予測制御問題に導かれる。
論文 参考訳(メタデータ) (2023-02-01T01:34:48Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Fail-Safe Adversarial Generative Imitation Learning [9.594432031144716]
本稿では, 安全な生成連続ポリシー, エンドツーエンドの生成逆トレーニング, 最悪の場合の安全性保証を, クローズドフォームの確率密度/勾配で実現する安全層を提案する。
安全層は、すべてのアクションを安全なアクションの集合にマッピングし、変量式と密度の測定値の加算率を使用する。
実世界のドライバーのインタラクションデータに関する実験では,提案手法のトラクタビリティ,安全性,模倣性能を実証的に実証した。
論文 参考訳(メタデータ) (2022-03-03T13:03:06Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Lyapunov-based uncertainty-aware safe reinforcement learning [0.0]
InReinforcement Learning (RL)は、様々なシーケンシャルな意思決定タスクに対して最適なポリシーを学ぶ上で、有望なパフォーマンスを示している。
多くの現実世界のRL問題において、主な目的を最適化する以外に、エージェントは一定のレベルの安全性を満たすことが期待されている。
これらの制約に対処するために,リャプノフに基づく不確実性を考慮した安全なRLモデルを提案する。
論文 参考訳(メタデータ) (2021-07-29T13:08:15Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。