論文の概要: Rationale-aware Autonomous Driving Policy utilizing Safety Force Field
implemented on CARLA Simulator
- arxiv url: http://arxiv.org/abs/2211.10237v1
- Date: Fri, 18 Nov 2022 13:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:34:25.307241
- Title: Rationale-aware Autonomous Driving Policy utilizing Safety Force Field
implemented on CARLA Simulator
- Title(参考訳): carlaシミュレータに導入した安全力場を利用した合理的自律運転政策
- Authors: Ho Suk, Taewoo Kim, Hyungbin Park, Pamul Yadav, Junyong Lee, and Shiho
Kim
- Abstract要約: 本稿では,車両群に対する予測器を提案し,その予測器に基づいて統合運転ポリシーを提案する。
この政策は、各条件ごとに個別の計画を持っていないが、安全電位を用いて、交通流に混入した人間のような運転を目標としている。
- 参考スコア(独自算出の注目度): 4.456405816364174
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the rapid improvement of autonomous driving technology in recent
years, automotive manufacturers must resolve liability issues to commercialize
autonomous passenger car of SAE J3016 Level 3 or higher. To cope with the
product liability law, manufacturers develop autonomous driving systems in
compliance with international standards for safety such as ISO 26262 and ISO
21448. Concerning the safety of the intended functionality (SOTIF) requirement
in ISO 26262, the driving policy recommends providing an explicit rational
basis for maneuver decisions. In this case, mathematical models such as Safety
Force Field (SFF) and Responsibility-Sensitive Safety (RSS) which have
interpretability on decision, may be suitable. In this work, we implement SFF
from scratch to substitute the undisclosed NVIDIA's source code and integrate
it with CARLA open-source simulator. Using SFF and CARLA, we present a
predictor for claimed sets of vehicles, and based on the predictor, propose an
integrated driving policy that consistently operates regardless of safety
conditions it encounters while passing through dynamic traffic. The policy does
not have a separate plan for each condition, but using safety potential, it
aims human-like driving blended in with traffic flow.
- Abstract(参考訳): 近年の自動運転技術の急速な進歩にもかかわらず、自動車メーカーはSAE J3016レベル3以上の自動運転車を商業化する責任問題を解決しなければならない。
製品責任法に対応するため、製造者はiso 26262やiso 21448といった国際安全基準に準拠した自動運転システムを開発する。
iso 26262における意図された機能(sotif)要件の安全性に関して、運転方針は、操作決定に対する明確な合理的根拠を提供することを推奨している。
この場合、決定の解釈可能性を有する安全力場(SFF)や責任感性安全(RSS)などの数学的モデルが適している可能性がある。
本研究ではSFFをスクラッチから実装し、NVIDIAのソースコードを置換し、CARLAオープンソースシミュレータと統合する。
sffとcarlaを用いて,要求された車両群を予測し,その予測者に基づいて,動的交通を通り抜ける際の安全条件によらず,一貫して運転する統合運転方針を提案する。
この政策は、各条件ごとに個別の計画を持っていないが、安全電位を用いて、交通流に混入した人間のような運転を目標としている。
関連論文リスト
- Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Autonomous Vehicle Decision-Making Framework for Considering Malicious
Behavior at Unsignalized Intersections [7.245712580297489]
自動運転車では、報酬信号は安全や効率などのフィードバック要因に関する通常の報酬として設定される。
本稿では,緊急時の安全性を高めるために,可変重み付けパラメータによって安全ゲインを変調する。
この決定フレームワークは、無人の交差点で潜在的に悪意のある振る舞いをする車両に遭遇する際に、自律走行車両が情報的決定を行うことを可能にする。
論文 参考訳(メタデータ) (2024-09-11T03:57:44Z) - S-RAF: A Simulation-Based Robustness Assessment Framework for Responsible Autonomous Driving [6.559634434583204]
自動運転のためのシミュレーションベースロバストネス評価フレームワーク(S-RAF)を紹介する。
堅牢性を定量化することで、S-RAFは開発者やステークホルダーが安全で責任のある運転エージェントを構築するのを助ける。
S-RAFは、テストコストの削減や、現実世界でテストするのが安全でないエッジケースを探索する機能など、大きなメリットがある。
論文 参考訳(メタデータ) (2024-08-16T07:37:05Z) - Enhanced Safety in Autonomous Driving: Integrating Latent State Diffusion Model for End-to-End Navigation [5.928213664340974]
本研究は自動運転の制御最適化問題における安全性問題に対処する。
本稿では,条件付きバリュー・アット・リスクに基づくソフトアクター批判を利用して,ポリシー最適化のための新しいモデルベースアプローチを提案する。
本手法では, 安全探索を誘導する最悪のアクターを導入し, 予測不可能なシナリオにおいても, 安全要件の厳密な遵守を確保する。
論文 参考訳(メタデータ) (2024-07-08T18:32:40Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Safe Deep Policy Adaptation [7.2747306035142225]
強化学習(RL)に基づく政策適応は、汎用性と汎用性を提供するが、安全性と堅牢性に挑戦する。
政策適応と安全強化学習の課題を同時に解決する新しいRLおよび制御フレームワークであるSafeDPAを提案する。
我々は、SafeDPAの理論的安全性を保証し、学習エラーや余分な摂動に対するSafeDPAの堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-08T00:32:59Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Driving-Policy Adaptive Safeguard for Autonomous Vehicles Using
Reinforcement Learning [19.71676985220504]
本稿では,衝突回避戦略とアクティベーション機能を含むDPAS設計を提案する。
運転政策適応型アクティベーション機能は、緊急脅威が検出された場合に、現在の運転方針リスクを動的に評価し、起動する必要がある。
実験の結果は自然発生運転データにより校正され, より多くの介入を伴わずに, 衝突速度を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-12-02T08:01:53Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。