論文の概要: Rationale-aware Autonomous Driving Policy utilizing Safety Force Field
implemented on CARLA Simulator
- arxiv url: http://arxiv.org/abs/2211.10237v1
- Date: Fri, 18 Nov 2022 13:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:34:25.307241
- Title: Rationale-aware Autonomous Driving Policy utilizing Safety Force Field
implemented on CARLA Simulator
- Title(参考訳): carlaシミュレータに導入した安全力場を利用した合理的自律運転政策
- Authors: Ho Suk, Taewoo Kim, Hyungbin Park, Pamul Yadav, Junyong Lee, and Shiho
Kim
- Abstract要約: 本稿では,車両群に対する予測器を提案し,その予測器に基づいて統合運転ポリシーを提案する。
この政策は、各条件ごとに個別の計画を持っていないが、安全電位を用いて、交通流に混入した人間のような運転を目標としている。
- 参考スコア(独自算出の注目度): 4.456405816364174
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the rapid improvement of autonomous driving technology in recent
years, automotive manufacturers must resolve liability issues to commercialize
autonomous passenger car of SAE J3016 Level 3 or higher. To cope with the
product liability law, manufacturers develop autonomous driving systems in
compliance with international standards for safety such as ISO 26262 and ISO
21448. Concerning the safety of the intended functionality (SOTIF) requirement
in ISO 26262, the driving policy recommends providing an explicit rational
basis for maneuver decisions. In this case, mathematical models such as Safety
Force Field (SFF) and Responsibility-Sensitive Safety (RSS) which have
interpretability on decision, may be suitable. In this work, we implement SFF
from scratch to substitute the undisclosed NVIDIA's source code and integrate
it with CARLA open-source simulator. Using SFF and CARLA, we present a
predictor for claimed sets of vehicles, and based on the predictor, propose an
integrated driving policy that consistently operates regardless of safety
conditions it encounters while passing through dynamic traffic. The policy does
not have a separate plan for each condition, but using safety potential, it
aims human-like driving blended in with traffic flow.
- Abstract(参考訳): 近年の自動運転技術の急速な進歩にもかかわらず、自動車メーカーはSAE J3016レベル3以上の自動運転車を商業化する責任問題を解決しなければならない。
製品責任法に対応するため、製造者はiso 26262やiso 21448といった国際安全基準に準拠した自動運転システムを開発する。
iso 26262における意図された機能(sotif)要件の安全性に関して、運転方針は、操作決定に対する明確な合理的根拠を提供することを推奨している。
この場合、決定の解釈可能性を有する安全力場(SFF)や責任感性安全(RSS)などの数学的モデルが適している可能性がある。
本研究ではSFFをスクラッチから実装し、NVIDIAのソースコードを置換し、CARLAオープンソースシミュレータと統合する。
sffとcarlaを用いて,要求された車両群を予測し,その予測者に基づいて,動的交通を通り抜ける際の安全条件によらず,一貫して運転する統合運転方針を提案する。
この政策は、各条件ごとに個別の計画を持っていないが、安全電位を用いて、交通流に混入した人間のような運転を目標としている。
関連論文リスト
- CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Safe Deep Policy Adaptation [7.947120571256027]
強化学習(RL)に基づく政策適応は、汎用性と汎用性を提供するが、安全性と堅牢性に挑戦する。
政策適応と安全強化学習の課題を同時に解決する新しいRLおよび制御フレームワークであるSafeDPAを提案する。
我々は、SafeDPAの理論的安全性を保証し、学習エラーや余分な摂動に対するSafeDPAの堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-08T00:32:59Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Risk-Aware Reward Shaping of Reinforcement Learning Agents for
Autonomous Driving [6.613838702441967]
本稿では,自律運転におけるRLエージェントのトレーニングとテスト性能を活用するために,リスク認識型報酬形成手法について検討する。
我々は、危険運転行動の探索と罰則を奨励する追加のリフォーム報酬項を提案する。
論文 参考訳(メタデータ) (2023-06-05T20:10:36Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - High-level Decisions from a Safe Maneuver Catalog with Reinforcement
Learning for Safe and Cooperative Automated Merging [5.732271870257913]
統合シナリオにおける安全かつ協調的な自動運転のための効率的なRLに基づく意思決定パイプラインを提案する。
提案するRLエージェントは、車両状態履歴から協調運転者を効率よく識別し、対話的な操作を生成する。
論文 参考訳(メタデータ) (2021-07-15T15:49:53Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Reinforcement Learning Based Safe Decision Making for Highway Autonomous
Driving [1.995792341399967]
マルチレーン・シングルエージェント環境での自動運転車の安全な意思決定方法を開発した。
提案手法は深層強化学習を用いて,安全な戦術的意思決定のためのハイレベルな方針を実現する。
論文 参考訳(メタデータ) (2021-05-13T19:17:30Z) - Driving-Policy Adaptive Safeguard for Autonomous Vehicles Using
Reinforcement Learning [19.71676985220504]
本稿では,衝突回避戦略とアクティベーション機能を含むDPAS設計を提案する。
運転政策適応型アクティベーション機能は、緊急脅威が検出された場合に、現在の運転方針リスクを動的に評価し、起動する必要がある。
実験の結果は自然発生運転データにより校正され, より多くの介入を伴わずに, 衝突速度を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-12-02T08:01:53Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。