論文の概要: Sensor Visibility Estimation: Metrics and Methods for Systematic
Performance Evaluation and Improvement
- arxiv url: http://arxiv.org/abs/2211.06308v1
- Date: Fri, 11 Nov 2022 16:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 17:08:41.763906
- Title: Sensor Visibility Estimation: Metrics and Methods for Systematic
Performance Evaluation and Improvement
- Title(参考訳): センサ可視性推定:システム性能評価と改善のためのメトリクスと方法
- Authors: Joachim B\"orger, Marc Patrick Zapf, Marat Kopytjuk, Xinrun Li 2, and
Claudius Gl\"aser
- Abstract要約: 可視性推定器の性能を評価するためのメトリクスとフレームワークを紹介する。
我々のメトリクスは、インフラレーダーやカメラからの実世界のラベルとシミュレーションデータで検証されます。
計測値を適用し,センサとオブジェクトの3次元標高をモデル化することにより,レーダとカメラの可視性の推定値を強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor visibility is crucial for safety-critical applications in automotive,
robotics, smart infrastructure and others: In addition to object detection and
occupancy mapping, visibility describes where a sensor can potentially measure
or is blind. This knowledge can enhance functional safety and perception
algorithms or optimize sensor topologies.
Despite its significance, to the best of our knowledge, neither a common
definition of visibility nor performance metrics exist yet. We close this gap
and provide a definition of visibility, derived from a use case review. We
introduce metrics and a framework to assess the performance of visibility
estimators.
Our metrics are verified with labeled real-world and simulation data from
infrastructure radars and cameras: The framework easily identifies false
visible or false invisible estimations which are safety-critical.
Applying our metrics, we enhance the radar and camera visibility estimators
by modeling the 3D elevation of sensor and objects. This refinement outperforms
the conventional planar 2D approach in trustfulness and thus safety.
- Abstract(参考訳): センサーの可視性は、自動車、ロボティクス、スマートインフラストラクチャなどにおいて、安全に重要なアプリケーションにとって不可欠である。
この知識は機能安全性と知覚アルゴリズムを強化したり、センサトポロジを最適化することができる。
その重要性にもかかわらず、私たちの知る限りでは、可視性やパフォーマンスメトリクスに関する共通の定義は存在しません。
このギャップを閉じて、ユースケースレビューから派生した可視性の定義を提供します。
可視性推定器の性能を評価するためのメトリクスとフレームワークを紹介する。
当社のメトリクスは,インフラストラクチャレーダやカメラによる実世界のラベル付きシミュレーションデータで検証されています。
センサや物体の3次元標高をモデル化することで,レーダーやカメラの視認性の向上を図る。
この改良により、従来の平面2次元アプローチよりも信頼性と安全性が向上する。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Exploring Credibility Scoring Metrics of Perception Systems for
Autonomous Driving [0.0]
オフラインメトリクスは、悪天候などの現実世界の汚職を考慮に入れるのに有効であることを示す。
これは、エラーのない自動運転車の認識と、より安全な時間クリティカルかつ安全クリティカルな意思決定を可能にするため、明らかな次のステップである。
論文 参考訳(メタデータ) (2021-12-22T03:17:14Z) - DMRVisNet: Deep Multi-head Regression Network for Pixel-wise Visibility
Estimation Under Foggy Weather [0.0]
霧は、一般的な気象の一種として、特に山岳地帯において、現実世界に頻繁に現れる。
現在の方法では、道路上の固定位置に配置されたプロの楽器を使用して視界測定を行う。
可視性を推定するために、革新的なエンドツーエンドの畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-08T13:31:07Z) - Visual Sensor Pose Optimisation Using Rendering-based Visibility Models
for Robust Cooperative Perception [4.5144287492490625]
Visual Sensor Networksは、複雑な道路セグメントにおける自動運転のためのインフラストラクチャのサポートなど、さまざまな認識アプリケーションで使用することができる。
このようなネットワーク内のセンサーのポーズは、環境と対象のカバレッジを直接決定する。
本稿では,勾配上昇法とプログラミング法に基づく2つの新しいセンサポーズ最適化手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T18:02:32Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z) - VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection [15.36267013724161]
本稿では,自律運転アプリケーションにおける交通信号検知器の精度とロバスト性を評価・理解・改善する視覚分析システム,VATLDを提案する。
歪んだ表現学習は、人間に親しみやすい視覚的要約で人間の認知を強化するために、データ意味を抽出する。
また、視覚分析システムであるVATLDによる様々な性能改善戦略の有効性を実証し、自律運転における安全クリティカルな応用の実践的意義を示す。
論文 参考訳(メタデータ) (2020-09-27T22:39:00Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。