論文の概要: A Review of Testing Object-Based Environment Perception for Safe
Automated Driving
- arxiv url: http://arxiv.org/abs/2102.08460v1
- Date: Tue, 16 Feb 2021 21:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 23:20:33.256323
- Title: A Review of Testing Object-Based Environment Perception for Safe
Automated Driving
- Title(参考訳): 安全な自動運転のためのオブジェクトベース環境認識テストのレビュー
- Authors: Michael Hoss, Maike Scholtes, Lutz Eckstein
- Abstract要約: 自動運転システムの安全確保は、環境認識の不確実性を考慮しなければならない。
本論文では,安全確保の一環として認識テストがいかに実現されるかに関する文献をレビューする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety assurance of automated driving systems must consider uncertain
environment perception. This paper reviews literature addressing how perception
testing is realized as part of safety assurance. We focus on testing for
verification and validation purposes at the interface between perception and
planning, and structure our analysis along the three axes 1) test criteria and
metrics, 2) test scenarios, and 3) reference data. Furthermore, the analyzed
literature includes related safety standards, safety-independent perception
algorithm benchmarking, and sensor modeling. We find that the realization of
safety-aware perception testing remains an open issue since challenges
concerning the three testing axes and their interdependencies currently do not
appear to be sufficiently solved.
- Abstract(参考訳): 自動運転システムの安全確保は、環境認識の不確実性を考慮しなければならない。
本論文では,安全確保の一環として認識テストがいかに実現されるかに関する文献をレビューする。
我々は、認識と計画の間のインターフェースにおける検証と検証の目的のテストに焦点を合わせ、1)テスト基準とメトリクス、2)テストシナリオ、3)リファレンスデータに沿って分析を構造化する。
さらに, 安全基準, 安全非依存知覚アルゴリズムベンチマーク, センサモデリングなどについて分析した。
安全認識テストの実現は,三軸とその相互依存性に関する課題が十分に解決されていないため,まだ未解決の課題である。
関連論文リスト
- ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Towards Building Self-Aware Object Detectors via Reliable Uncertainty
Quantification and Calibration [17.461451218469062]
本稿では,自己認識オブジェクト検出(SAOD)タスクを紹介する。
SAODタスクは、自律運転のような安全クリティカルな環境でオブジェクト検出器が直面する課題を尊重し、遵守する。
我々は、多数のオブジェクト検出器をテストするために、新しいメトリクスと大規模なテストデータセットを導入したフレームワークを広範囲に使用しています。
論文 参考訳(メタデータ) (2023-07-03T11:16:39Z) - A Requirements-Driven Platform for Validating Field Operations of Small
Uncrewed Aerial Vehicles [48.67061953896227]
DroneReqValidator (DRV)は、sUAS開発者が運用コンテキストを定義し、複数のsUASミッション要件を設定し、安全性特性を指定し、独自のsUASアプリケーションを高忠実な3D環境にデプロイすることを可能にする。
DRVモニタリングシステムは、sUASと環境からランタイムデータを収集し、安全特性のコンプライアンスを分析し、違反をキャプチャする。
論文 参考訳(メタデータ) (2023-07-01T02:03:49Z) - Identifying and Explaining Safety-critical Scenarios for Autonomous
Vehicles via Key Features [5.634825161148484]
本稿では,AVの安全でない動作を明らかにする能力に影響を及ぼすテストシナリオの重要な特徴を特定するために,ISA(インスタンス空間解析)を用いる。
ISAは、安全クリティカルなシナリオと通常の運転とを最も区別する機能を特定し、2Dのテストシナリオ結果(セーフ/アンセーフ)への影響を可視化する。
特定された機能の予測能力をテストするために、5つの機械学習分類器をトレーニングし、テストシナリオを安全または安全でないものとして分類する。
論文 参考訳(メタデータ) (2022-12-15T00:52:47Z) - Safety Metrics and Losses for Object Detection in Autonomous Driving [3.2259574483835673]
自律運転における3次元物体検出器の安全性について考察する。
定式化中、画像上に投影された2次元境界ボックスと鳥の目視平面で3次元オブジェクトを抽象化することで、提案された安全要件に対して必要かつ十分な条件を実現できることが判明した。
連続的な改善のために、物体検出器をより高い安全性スコアに最適化するために使用できる安全損失を定式化する。
論文 参考訳(メタデータ) (2022-09-21T14:03:08Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Search-based Test-Case Generation by Monitoring Responsibility Safety
Rules [2.1270496914042996]
本研究では,シミュレーションに基づく運転テストデータのスクリーニングと分類を行う手法を提案する。
本フレームワークは,S-TALIROおよびSim-ATAVツールとともに配布されている。
論文 参考訳(メタデータ) (2020-04-25T10:10:11Z) - Efficient statistical validation with edge cases to evaluate Highly
Automated Vehicles [6.198523595657983]
自動運転車の大規模展開は、まだ解決されていない多くの安全上の課題にもかかわらず、差し迫っているようだ。
既存の標準は、検証が要求をカバーするテストケースのセットだけを必要とする決定論的プロセスに焦点を当てています。
本稿では, 自動生成テストケースを最悪のシナリオに偏り付け, システムの挙動の統計的特性を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-04T04:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。