論文の概要: EPSM: A Novel Metric to Evaluate the Safety of Environmental Perception in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2512.15195v1
- Date: Wed, 17 Dec 2025 08:46:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.90425
- Title: EPSM: A Novel Metric to Evaluate the Safety of Environmental Perception in Autonomous Driving
- Title(参考訳): EPSM:自律運転における環境認識の安全性を評価する新しい指標
- Authors: Jörg Gamerdinger, Sven Teufel, Stephan Amann, Lukas Marc Listl, Oliver Bringmann,
- Abstract要約: 認識システムの全体的な性能だけでなく,安全性も評価することが重要である。
本稿では,最も重要な知覚課題,物体,車線検出を共同評価するための新しい安全基準を提案する。
提案フレームワークは,オブジェクト検出エラーに伴う潜在的なリスクを定量化する,新しい軽量なオブジェクト安全性指標を統合する。
- 参考スコア(独自算出の注目度): 0.5314069314483559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extensive evaluation of perception systems is crucial for ensuring the safety of intelligent vehicles in complex driving scenarios. Conventional performance metrics such as precision, recall and the F1-score assess the overall detection accuracy, but they do not consider the safety-relevant aspects of perception. Consequently, perception systems that achieve high scores in these metrics may still cause misdetections that could lead to severe accidents. Therefore, it is important to evaluate not only the overall performance of perception systems, but also their safety. We therefore introduce a novel safety metric for jointly evaluating the most critical perception tasks, object and lane detection. Our proposed framework integrates a new, lightweight object safety metric that quantifies the potential risk associated with object detection errors, as well as an lane safety metric including the interdependence between both tasks that can occur in safety evaluation. The resulting combined safety score provides a unified, interpretable measure of perception safety performance. Using the DeepAccident dataset, we demonstrate that our approach identifies safety critical perception errors that conventional performance metrics fail to capture. Our findings emphasize the importance of safety-centric evaluation methods for perception systems in autonomous driving.
- Abstract(参考訳): 認識システムの大規模評価は、複雑な運転シナリオにおけるインテリジェントな車両の安全性を確保するために不可欠である。
精度、リコール、F1スコアなどの従来のパフォーマンス指標は全体の検出精度を評価するが、それらは認識の安全性に関連する側面を考慮していない。
その結果、これらの指標で高いスコアを得る知覚システムは、深刻な事故を引き起こす可能性のある誤検知を引き起こす可能性がある。
したがって,認識システム全体の性能だけでなく,安全性も評価することが重要である。
そこで我々は,最も重要な知覚課題,物体,車線検出を共同評価するための新しい安全基準を導入する。
提案フレームワークでは,オブジェクト検出エラーに関連する潜在的なリスクを定量化する,新しい軽量なオブジェクト安全性指標と,安全性評価において発生する両タスク間の相互依存性を含むレーン安全性指標を統合した。
その結果得られた総合安全スコアは、認識安全性能の統一的で解釈可能な尺度を提供する。
DeepAccidentデータセットを用いて、従来のパフォーマンス指標が捉えられない安全クリティカルな認識誤差を特定する。
本研究は,自律運転における認識システムに対する安全中心評価手法の重要性を強調した。
関連論文リスト
- Criticality Metrics for Relevance Classification in Safety Evaluation of Object Detection in Automated Driving [0.5701177763922466]
安全性評価の鍵となる要素は、関連するオブジェクトと非関連オブジェクトを区別する能力である。
本稿では,オブジェクト検出システムの安全性評価のための臨界度指標の詳細な分析を行う。
論文 参考訳(メタデータ) (2025-12-17T08:28:53Z) - A Comprehensive Safety Metric to Evaluate Perception in Autonomous Systems [39.67816845884978]
物体知覚は自動車のサラウンドセンシングの主要な構成要素である。
物体知覚の評価には様々な指標が存在する。
本稿では,これらのパラメータを全て組み込んだ新しい安全基準を提案し,対象知覚のための1つの容易に解釈可能な安全性評価スコアを返却する。
論文 参考訳(メタデータ) (2025-12-16T12:53:00Z) - SafetyAnalyst: Interpretable, Transparent, and Steerable Safety Moderation for AI Behavior [56.10557932893919]
我々は、新しいAI安全モデレーションフレームワークであるSafetyAnalystを紹介する。
AIの振る舞いを考えると、SafetyAnalystはチェーン・オブ・シークレット・推論を使用してその潜在的な結果を分析する。
効果を28個の完全に解釈可能な重みパラメータを使って有害度スコアに集約する。
論文 参考訳(メタデータ) (2024-10-22T03:38:37Z) - LSM: A Comprehensive Metric for Assessing the Safety of Lane Detection Systems in Autonomous Driving [0.5326090003728084]
本研究では,車線検出システムの安全性を評価するため,車線安全基準(LSM)を提案する。
道路タイプや道路幅を考慮したシーンのセマンティクスなどの付加的要因を車線検出の評価に考慮すべきである。
我々は,異なるレーン検出手法を用いて,様々な仮想シナリオにおけるオフライン安全基準を評価し,最先端のパフォーマンス指標と比較した。
論文 参考訳(メタデータ) (2024-07-10T15:11:37Z) - A Safety-Adapted Loss for Pedestrian Detection in Automated Driving [13.676179470606844]
安全クリティカルなドメインでは、オブジェクト検出器によるエラーは歩行者や他の脆弱な道路利用者を危険にさらす可能性がある。
本稿では,トレーニング中の歩行者あたりの臨界点の推定値を活用する安全意識の損失変動を提案する。
論文 参考訳(メタデータ) (2024-02-05T13:16:38Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Risk-Driven Design of Perception Systems [47.787943101699966]
システム全体の安全性を低下させるエラーを最小限に抑えるために,認識システムを設計することが重要である。
完全積分閉ループシステムの性能に及ぼす知覚誤差の影響を考慮に入れた認識システム設計のためのリスク駆動型アプローチを開発する。
本研究では,現実的な視界に基づく航空機による応用・回避技術の評価を行い,リスク駆動設計がベースラインシステム上での衝突リスクを37%低減することを示す。
論文 参考訳(メタデータ) (2022-05-21T21:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。