論文の概要: Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards
- arxiv url: http://arxiv.org/abs/2206.00886v1
- Date: Thu, 2 Jun 2022 05:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:53:48.359854
- Title: Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards
- Title(参考訳): 安全を脅かす俳優の注意:積極的に安全の危険を緩和する
- Authors: Saurabh Jha and Shengkun Cui and Zbigniew Kalbarczyk and Ravishankar
K. Iyer
- Abstract要約: 本稿では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
提案手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
- 参考スコア(独自算出の注目度): 5.898210877584262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the successful demonstration of autonomous vehicles (AVs), such as
self-driving cars, ensuring AV safety remains a challenging task. Although some
actors influence an AV's driving decisions more than others, current approaches
pay equal attention to each actor on the road. An actor's influence on the AV's
decision can be characterized in terms of its ability to decrease the number of
safe navigational choices for the AV. In this work, we propose a safety threat
indicator (STI) using counterfactual reasoning to estimate the importance of
each actor on the road with respect to its influence on the AV's safety. We use
this indicator to (i) characterize the existing real-world datasets to identify
rare hazardous scenarios as well as the poor performance of existing
controllers in such scenarios; and (ii) design an RL based safety mitigation
controller to proactively mitigate the safety hazards those actors pose to the
AV. Our approach reduces the accident rate for the state-of-the-art AV agent(s)
in rare hazardous scenarios by more than 70%.
- Abstract(参考訳): 自動運転車のような自動運転車(AV)の実証が成功したにもかかわらず、AVの安全性を確保することは難しい課題である。
一部の俳優はavの運転決定に他よりも影響を与えているが、現在のアプローチは各俳優に同じ注意を払っている。
AVの決定に対するアクターの影響は、AVにとって安全な航法選択の回数を減らす能力によって特徴づけられる。
本研究では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
私たちはこの指標を使います
(i)既存の現実世界のデータセットを特徴付けて、希少な危険シナリオを特定することと、そのようなシナリオにおける既存のコントローラのパフォーマンスの劣悪さを特定すること。
(II)アクターがAVに課す安全リスクを積極的に軽減するRLベースの安全対策コントローラを設計する。
本手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
関連論文リスト
- A novel framework for adaptive stress testing of autonomous vehicles in
highways [3.2112502548606825]
高速道路交通のシナリオにおいて,安全上の懸念を生じさせるようなコーナーケースを探索する新しい枠組みを提案する。
衝突確率推定に基づいて衝突シナリオを識別する際のASTを導出するDRLの新しい報奨関数を開発した。
提案するフレームワークは,より現実的なトラフィックシナリオの作成を可能にする,新たな駆動モデルとさらに統合されている。
論文 参考訳(メタデータ) (2024-02-19T04:02:40Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles [3.3605894204326994]
AVの精度と速度の基本的な工学的トレードオフを理解することは、AVシステムに固有の不確実性とリスクを規制する政策立案者にとって非常に重要である、と我々は主張する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
論文 参考訳(メタデータ) (2022-08-03T13:24:25Z) - Watch out for the risky actors: Assessing risk in dynamic environments
for safe driving [7.13056075998264]
俳優のエゴが遭遇するリスクは、運転シナリオにおける他の俳優の将来の軌跡を予測することに関連する、運転シナリオと不確実性に依存する。
本研究では,世界における各アクターの重要性を計算し,その有用性を示す新たなリスク指標を提案する。
論文 参考訳(メタデータ) (2021-10-19T14:10:26Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - ML-driven Malware that Targets AV Safety [5.675697880379048]
我々は、攻撃モデル、スマートマルウェアの形で攻撃を展開する方法、およびプロダクショングレードの自動運転ソフトウェアに対するその影響を実験的に評価する。
攻撃開始までの時間間隔を決定することは、高い成功率で安全上の危険を引き起こすために極めて重要である。
例えば、スマートマルウェアは、ランダムな攻撃よりも33倍の緊急ブレーキを引き起こし、運転シミュレーションの52.6%で事故が発生した。
論文 参考訳(メタデータ) (2020-04-24T22:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。