論文の概要: Safety-Critical Scenario Generation Via Reinforcement Learning Based
Editing
- arxiv url: http://arxiv.org/abs/2306.14131v2
- Date: Mon, 25 Sep 2023 23:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 20:44:32.486709
- Title: Safety-Critical Scenario Generation Via Reinforcement Learning Based
Editing
- Title(参考訳): 強化学習に基づく編集による安全批判シナリオ生成
- Authors: Haolan Liu, Liangjun Zhang, Siva Kumar Sastry Hari, Jishen Zhao
- Abstract要約: 本稿では,逐次編集による安全クリティカルなシナリオを生成する深層強化学習手法を提案する。
我々のフレームワークは、リスクと妥当性の両方の目的からなる報酬関数を用いています。
提案手法は, 従来手法と比較して, 品質の高い安全クリティカルなシナリオを生成することを示す。
- 参考スコア(独自算出の注目度): 20.99962858782196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating safety-critical scenarios is essential for testing and verifying
the safety of autonomous vehicles. Traditional optimization techniques suffer
from the curse of dimensionality and limit the search space to fixed parameter
spaces. To address these challenges, we propose a deep reinforcement learning
approach that generates scenarios by sequential editing, such as adding new
agents or modifying the trajectories of the existing agents. Our framework
employs a reward function consisting of both risk and plausibility objectives.
The plausibility objective leverages generative models, such as a variational
autoencoder, to learn the likelihood of the generated parameters from the
training datasets; It penalizes the generation of unlikely scenarios. Our
approach overcomes the dimensionality challenge and explores a wide range of
safety-critical scenarios. Our evaluation demonstrates that the proposed method
generates safety-critical scenarios of higher quality compared with previous
approaches.
- Abstract(参考訳): 安全クリティカルシナリオの生成は、自動運転車の安全性のテストと検証に不可欠である。
従来の最適化手法は次元の呪いに苦しめられ、探索空間を固定パラメータ空間に制限する。
これらの課題に対処するため,我々は,新しいエージェントの追加や既存エージェントのトラジェクタの変更など,逐次編集によってシナリオを生成する深層強化学習手法を提案する。
我々のフレームワークはリスクと可能性の両方の目的からなる報酬機能を採用している。
妥当性の目標は、変分オートエンコーダのような生成モデルを利用して、トレーニングデータセットから生成されたパラメータの可能性を学習する。
われわれのアプローチは次元的課題を克服し、幅広い安全クリティカルシナリオを探求する。
提案手法は, 従来手法と比較して, 品質の高い安全クリティカルなシナリオを生成することを示す。
関連論文リスト
- SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Bridging Data-Driven and Knowledge-Driven Approaches for Safety-Critical
Scenario Generation in Automated Vehicle Validation [5.063522035689929]
自動走行車(ADV)は、運転効率と安全性を高めることを約束するが、安全クリティカルなシナリオでは課題に直面している。
本稿では,データ駆動型と知識駆動型という2つの主要なシナリオ生成ソリューションを採用する複雑さについて検討する。
安全クリティカルなシナリオ生成フレームワークであるBridgeGenを紹介します。
論文 参考訳(メタデータ) (2023-11-18T02:11:14Z) - Risk-Averse Model Uncertainty for Distributionally Robust Safe
Reinforcement Learning [3.9821399546174825]
不確実な環境での安全な意思決定のための深層強化学習フレームワークを提案する。
我々は,このフレームワークに対して,分散的に堅牢な強化学習問題の特定のクラスと等価であることを示すことによって,堅牢性を保証する。
安全性の制約のある継続的制御タスクの実験では、当社のフレームワークが、さまざまな障害のあるテスト環境にわたるデプロイメント時に、堅牢なパフォーマンスと安全性を実現していることを示す。
論文 参考訳(メタデータ) (2023-01-30T00:37:06Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Lyapunov-based uncertainty-aware safe reinforcement learning [0.0]
InReinforcement Learning (RL)は、様々なシーケンシャルな意思決定タスクに対して最適なポリシーを学ぶ上で、有望なパフォーマンスを示している。
多くの現実世界のRL問題において、主な目的を最適化する以外に、エージェントは一定のレベルの安全性を満たすことが期待されている。
これらの制約に対処するために,リャプノフに基づく不確実性を考慮した安全なRLモデルを提案する。
論文 参考訳(メタデータ) (2021-07-29T13:08:15Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Multimodal Safety-Critical Scenarios Generation for Decision-Making
Algorithms Evaluation [23.43175124406634]
既存のニューラルネットワークベースの自律システムは、敵の攻撃に対して脆弱であることが示されている。
意思決定アルゴリズムの評価のためのフローベースマルチモーダル安全クリティカルシナリオジェネレータを提案する。
生成したトラフィックシナリオを用いて6つの強化学習アルゴリズムを評価し,その堅牢性に関する実証的な結論を提供する。
論文 参考訳(メタデータ) (2020-09-16T15:16:43Z) - Learning to Collide: An Adaptive Safety-Critical Scenarios Generating
Method [20.280573307366627]
本稿では,タスクアルゴリズム評価のための安全クリティカルなシナリオを作成するための生成フレームワークを提案する。
提案手法は,グリッド探索や人的設計手法よりも安全クリティカルなシナリオを効率的に生成できることを実証する。
論文 参考訳(メタデータ) (2020-03-02T21:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。