論文の概要: Dynamically Conservative Self-Driving Planner for Long-Tail Cases
- arxiv url: http://arxiv.org/abs/2305.07497v1
- Date: Fri, 12 May 2023 14:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:39:28.449200
- Title: Dynamically Conservative Self-Driving Planner for Long-Tail Cases
- Title(参考訳): 長距離ケースの動的保守的自動運転プランナー
- Authors: Weitao Zhou, Zhong Cao, Nanshan Deng, Xiaoyu Liu, Kun Jiang, Diange
Yang
- Abstract要約: 自動運転車(SDV)は現実化しつつあるが、まだ自然運転中に「ロングテール」な課題に悩まされている。
一部の安全保証プランナーは、あらゆるケースで保守的であることでこの問題を解決している。
本研究は, 各ケースの「ロングテール」レートに応じて, 保守レベルを自動的に調整する手法を提案する。
- 参考スコア(独自算出の注目度): 12.645597960926601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-driving vehicles (SDVs) are becoming reality but still suffer from
"long-tail" challenges during natural driving: the SDVs will continually
encounter rare, safety-critical cases that may not be included in the dataset
they were trained. Some safety-assurance planners solve this problem by being
conservative in all possible cases, which may significantly affect driving
mobility. To this end, this work proposes a method to automatically adjust the
conservative level according to each case's "long-tail" rate, named dynamically
conservative planner (DCP). We first define the "long-tail" rate as an SDV's
confidence to pass a driving case. The rate indicates the probability of
safe-critical events and is estimated using the statistics bootstrapped method
with historical data. Then, a reinforcement learning-based planner is designed
to contain candidate policies with different conservative levels. The final
policy is optimized based on the estimated "long-tail" rate. In this way, the
DCP is designed to automatically adjust to be more conservative in
low-confidence "long-tail" cases while keeping efficient otherwise. The DCP is
evaluated in the CARLA simulator using driving cases with "long-tail"
distributed training data. The results show that the DCP can accurately
estimate the "long-tail" rate to identify potential risks. Based on the rate,
the DCP automatically avoids potential collisions in "long-tail" cases using
conservative decisions while not affecting the average velocity in other
typical cases. Thus, the DCP is safer and more efficient than the baselines
with fixed conservative levels, e.g., an always conservative planner. This work
provides a technique to guarantee SDV's performance in unexpected driving cases
without resorting to a global conservative setting, which contributes to
solving the "long-tail" problem practically.
- Abstract(参考訳): 自動運転車(sdvs)は現実のものになりつつあるが、それでも自然運転中に"ロングテール"な課題に苦しんでいる。
一部の安全保証プランナーは、あらゆるケースで保守的であり、運転モビリティに大きな影響を与える可能性がある。
そこで本研究では,各ケースの長テール率に応じて,動的保守プランナー(dcp)と呼ばれる保守レベルを自動的に調整する手法を提案する。
まず「ロングテール」率を、駆動ケースを通過させるSDVの信頼度として定義する。
このレートは、安全クリティカルな事象の確率を示し、履歴データを持つ統計ブートストラップ法を用いて推定される。
そして、強化学習ベースのプランナーは、異なる保守レベルの候補ポリシーを含むように設計されている。
最終方針は、推定された「ロングテール」レートに基づいて最適化される。
このようにして、dcpは低信頼の"ロングテール"ケースでより保守的になるように自動的に調整されるように設計されている。
CARLAシミュレータでは「ロングテール」分散トレーニングデータを用いた運転事例を用いてDCPを評価する。
その結果,dcpはリスクを識別するために「ロングテール」率を正確に推定できることがわかった。
この速度に基づいて、DCPは保守的な決定を用いて「ロングテール」のケースの衝突の可能性を自動的に回避するが、他の典型的なケースでは平均速度には影響しない。
従って、DCPは、常に保守的なプランナーのような固定された保守レベルを持つベースラインよりも安全で効率的である。
この研究は、グローバルな保守的な設定に頼らずに、予期せぬ運転場面におけるSDVの性能を保証する技術を提供し、「ロングテール」問題を現実的に解決することに寄与する。
関連論文リスト
- Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - ConstrainedZero: Chance-Constrained POMDP Planning using Learned Probabilistic Failure Surrogates and Adaptive Safety Constraints [34.9739641898452]
本研究では、最適値とポリシーのニューラルネットワーク近似を学習することにより、信念空間におけるCC-POMDPを解くConstrainedZeroポリシーアルゴリズムを導入する。
その結果, 目標から安全制約を分離することで, 報酬とコストのバランスを最適化することなく, 目標となる安全レベルを達成できることが示唆された。
論文 参考訳(メタデータ) (2024-05-01T17:17:22Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Continual Driving Policy Optimization with Closed-Loop Individualized Curricula [2.903150959383393]
閉ループ個別化カリキュラム(CLIC)を特徴とする連続運転ポリシー最適化フレームワークを開発した。
CLICは衝突予測タスクとしてAV評価をフレーム化し、各イテレーションでこれらのシナリオでAV障害が起こる確率を見積もる。
CLICは他のカリキュラムベースのトレーニング戦略を超越し、リスクのあるシナリオの管理を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2023-09-25T15:14:54Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Safe Deep Reinforcement Learning by Verifying Task-Level Properties [84.64203221849648]
コスト関数は、安全深層強化学習(DRL)において一般的に用いられる。
このコストは通常、国家空間における政策決定のリスクの定量化が難しいため、指標関数として符号化される。
本稿では,ドメイン知識を用いて,そのような状態に近接するリスクを定量化するための代替手法について検討する。
論文 参考訳(メタデータ) (2023-02-20T15:24:06Z) - Predicting Autonomous Vehicle Collision Injury Severity Levels for
Ethical Decision Making and Path Planning [1.713291434132985]
自動運転車(AV)の開発は急速に進展しており、今後20年以内に私たちの社会の中心となるでしょう。
AVインシデントが発生した場合、例えば歩行者グループへの衝突か堅固な障壁かを判断するなど、倫理的な決定を必要とする決定を行う必要がある。
AVがそのような倫理的な意思決定と経路計画を行うためには、AV上でリアルタイムに使用される状況のシミュレーションモデルが必要である。
これらのモデルは、所定の衝突損傷重度レベルに基づいて経路計画と倫理的意思決定を可能にする。
論文 参考訳(メタデータ) (2022-12-16T15:39:44Z) - An Open Case-based Reasoning Framework for Personalized On-board Driving
Assistance in Risk Scenarios [0.46408356903366527]
個人化された車載運転支援を実現するためのオープンなフレームワークを提案する。
その後、既存の事例を検索、再利用、修正し、支援を生成するためのCBRベースの調整手法が提案される。
100-Car Naturalistic Driving Studyデータセットをフレームワークの構築とテストの例として用います。
論文 参考訳(メタデータ) (2022-11-23T09:28:28Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Decision-Making under On-Ramp merge Scenarios by Distributional Soft
Actor-Critic Algorithm [10.258474373022075]
SDSAC(Shield Distributional Soft Actor-critic)と呼ばれるオフライントレーニングとオンライン修正の枠組みに基づくRLベースのエンドツーエンド意思決定方法を提案する。
その結果,SDSACはベースラインアルゴリズムよりも安全性が高く,運転効率も高いことがわかった。
論文 参考訳(メタデータ) (2021-03-08T03:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。