論文の概要: Criticality Metrics for Relevance Classification in Safety Evaluation of Object Detection in Automated Driving
- arxiv url: http://arxiv.org/abs/2512.15181v1
- Date: Wed, 17 Dec 2025 08:28:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.900001
- Title: Criticality Metrics for Relevance Classification in Safety Evaluation of Object Detection in Automated Driving
- Title(参考訳): 自動走行における物体検出の安全性評価における関連分類の基準
- Authors: Jörg Gamerdinger, Sven Teufel, Stephan Amann, Oliver Bringmann,
- Abstract要約: 安全性評価の鍵となる要素は、関連するオブジェクトと非関連オブジェクトを区別する能力である。
本稿では,オブジェクト検出システムの安全性評価のための臨界度指標の詳細な分析を行う。
- 参考スコア(独自算出の注目度): 0.5701177763922466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring safety is the primary objective of automated driving, which necessitates a comprehensive and accurate perception of the environment. While numerous performance evaluation metrics exist for assessing perception capabilities, incorporating safety-specific metrics is essential to reliably evaluate object detection systems. A key component for safety evaluation is the ability to distinguish between relevant and non-relevant objects - a challenge addressed by criticality or relevance metrics. This paper presents the first in-depth analysis of criticality metrics for safety evaluation of object detection systems. Through a comprehensive review of existing literature, we identify and assess a range of applicable metrics. Their effectiveness is empirically validated using the DeepAccident dataset, which features a variety of safety-critical scenarios. To enhance evaluation accuracy, we propose two novel application strategies: bidirectional criticality rating and multi-metric aggregation. Our approach demonstrates up to a 100% improvement in terms of criticality classification accuracy, highlighting its potential to significantly advance the safety evaluation of object detection systems in automated vehicles.
- Abstract(参考訳): 安全を確保することが自動運転の主要な目的であり、環境に対する包括的で正確な認識を必要とする。
認識能力の評価には多数の性能評価指標が存在するが、物体検出システムを確実に評価するためには、安全性特異的な指標を取り入れることが不可欠である。
安全性評価の鍵となるコンポーネントは、関連するオブジェクトと非関連オブジェクトを区別する能力である。
本稿では,オブジェクト検出システムの安全性評価のための臨界度指標の詳細な分析を行う。
既存の文献の総合的なレビューを通じて、適用可能なメトリクスの範囲を特定し、評価する。
それらの有効性は、さまざまな安全クリティカルなシナリオを特徴とするDeepAccidentデータセットを使用して実証的に検証されている。
評価精度を向上させるために, 双方向臨界評価と多次元アグリゲーションという2つの新しい応用手法を提案する。
本手法は, 自動走行車における物体検出システムの安全性評価を大幅に向上させる可能性を示すとともに, 臨界度分類精度を最大100%向上することを示す。
関連論文リスト
- EPSM: A Novel Metric to Evaluate the Safety of Environmental Perception in Autonomous Driving [0.5314069314483559]
認識システムの全体的な性能だけでなく,安全性も評価することが重要である。
本稿では,最も重要な知覚課題,物体,車線検出を共同評価するための新しい安全基準を提案する。
提案フレームワークは,オブジェクト検出エラーに伴う潜在的なリスクを定量化する,新しい軽量なオブジェクト安全性指標を統合する。
論文 参考訳(メタデータ) (2025-12-17T08:46:49Z) - A Comprehensive Safety Metric to Evaluate Perception in Autonomous Systems [39.67816845884978]
物体知覚は自動車のサラウンドセンシングの主要な構成要素である。
物体知覚の評価には様々な指標が存在する。
本稿では,これらのパラメータを全て組み込んだ新しい安全基準を提案し,対象知覚のための1つの容易に解釈可能な安全性評価スコアを返却する。
論文 参考訳(メタデータ) (2025-12-16T12:53:00Z) - The Scales of Justitia: A Comprehensive Survey on Safety Evaluation of LLMs [57.1838332916627]
大規模言語モデル(LLM)は自然言語処理(NLP)において顕著な能力を示している。
広範囲に展開したことにより、大きな安全上の懸念がもたらされた。
LLMの生成したコンテンツは、特に敵の文脈において、毒性、偏見、誤情報などの安全でない振る舞いを示す。
論文 参考訳(メタデータ) (2025-06-06T05:50:50Z) - Safety by Measurement: A Systematic Literature Review of AI Safety Evaluation Methods [0.0]
この文献レビューは、急速に進化するAI安全性評価の分野を集約する。
それは、どの特性を計測するか、どのように測定するか、そしてこれらの測定がフレームワークにどのように統合されるかという、3つの次元に関する体系的な分類法を提案する。
論文 参考訳(メタデータ) (2025-05-08T16:55:07Z) - Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - LSM: A Comprehensive Metric for Assessing the Safety of Lane Detection Systems in Autonomous Driving [0.5326090003728084]
本研究では,車線検出システムの安全性を評価するため,車線安全基準(LSM)を提案する。
道路タイプや道路幅を考慮したシーンのセマンティクスなどの付加的要因を車線検出の評価に考慮すべきである。
我々は,異なるレーン検出手法を用いて,様々な仮想シナリオにおけるオフライン安全基準を評価し,最先端のパフォーマンス指標と比較した。
論文 参考訳(メタデータ) (2024-07-10T15:11:37Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - A Review of Testing Object-Based Environment Perception for Safe
Automated Driving [0.0]
自動運転システムの安全確保は、環境認識の不確実性を考慮しなければならない。
本論文では,安全確保の一環として認識テストがいかに実現されるかに関する文献をレビューする。
論文 参考訳(メタデータ) (2021-02-16T21:40:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。