論文の概要: Reactive and Safe Road User Simulations using Neural Barrier
Certificates
- arxiv url: http://arxiv.org/abs/2109.06689v1
- Date: Tue, 14 Sep 2021 13:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:47:09.234940
- Title: Reactive and Safe Road User Simulations using Neural Barrier
Certificates
- Title(参考訳): ニューラルバリア認証を用いたリアクティブかつ安全な道路ユーザシミュレーション
- Authors: Yue Meng, Zengyi Qin, Chuchu Fan
- Abstract要約: 本稿では,本来の目的を組み込まずに安全性を確保するリアクティブエージェントモデルを提案する。
我々の学習した道路利用者シミュレーションモデルは、安全性を大幅に向上させることができる。
我々の学習された反応剤は、目に見えない交通条件を一般化する。
- 参考スコア(独自算出の注目度): 9.961324632236499
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reactive and safe agent modelings are important for nowadays traffic
simulator designs and safe planning applications. In this work, we proposed a
reactive agent model which can ensure safety without comprising the original
purposes, by learning only high-level decisions from expert data and a
low-level decentralized controller guided by the jointly learned decentralized
barrier certificates. Empirical results show that our learned road user
simulation models can achieve a significant improvement in safety comparing to
state-of-the-art imitation learning and pure control-based methods, while being
similar to human agents by having smaller errors to the expert data. Moreover,
our learned reactive agents are shown to generalize better to unseen traffic
conditions, and react better to other road users and therefore can help
understand challenging planning problems pragmatically.
- Abstract(参考訳): リアクティブで安全なエージェントモデリングは、今日の交通シミュレータの設計と安全な計画アプリケーションにとって重要である。
本研究では,専門家データから高レベルな意思決定のみを学習し,共同学習した分散バリア証明書によって誘導される低レベル分散コントローラを学習することにより,元の目的を構成せずに安全性を確保できるリアクティブエージェントモデルを提案する。
実験結果から,我々の学習した道路利用者シミュレーションモデルは,専門家データに誤差を小さくすることで,人間のエージェントと類似しながら,最先端の模倣学習や純粋制御に基づく手法と比較して安全性を著しく向上できることが示された。
さらに,我々の学習された反応エージェントは,交通状況の把握を向上し,他の道路利用者とよりよく対応できることが示される。
関連論文リスト
- Improving Agent Behaviors with RL Fine-tuning for Autonomous Driving [17.27549891731047]
我々は,強化学習を用いた行動モデルのクローズドループ微調整によりエージェント動作の信頼性を向上させる。
本手法は,衝突速度などの目標値の改善とともに,全体的な性能の向上を示す。
シミュレーションエージェントが自律走行車プランナーの質を計測する能力を直接評価するための新しいポリシー評価ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-09-26T23:40:33Z) - Traffic expertise meets residual RL: Knowledge-informed model-based residual reinforcement learning for CAV trajectory control [1.5361702135159845]
本稿では,知識インフォームドモデルに基づく残留強化学習フレームワークを提案する。
交通専門家の知識を仮想環境モデルに統合し、基本力学にIntelligent Driver Model(IDM)、残留力学にニューラルネットワークを使用する。
本稿では,従来の制御手法を残差RLと組み合わせて,スクラッチから学習することなく,効率的な学習と政策最適化を容易にする新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-08-30T16:16:57Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - ConBaT: Control Barrier Transformer for Safe Policy Learning [26.023275758215423]
Control Barrier Transformer (ConBaT) は、自己管理型でデモから安全な動作を学ぶアプローチである。
デプロイメントでは、軽量なオンライン最適化を使用して、学習された安全なセット内に将来状態が確実に配置されるアクションを見つけます。
論文 参考訳(メタデータ) (2023-03-07T20:04:28Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Neural Bridge Sampling for Evaluating Safety-Critical Autonomous Systems [34.945482759378734]
シミュレーションの安全性評価には確率論的アプローチを用いており、危険事象の確率を計算することに関心がある。
探索, 利用, 最適化技術を組み合わせて, 故障モードを見つけ, 発生率を推定する新しいレアイベントシミュレーション手法を開発した。
論文 参考訳(メタデータ) (2020-08-24T17:46:27Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。