論文の概要: A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception
- arxiv url: http://arxiv.org/abs/2203.02588v2
- Date: Thu, 1 Jun 2023 01:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 02:13:56.343103
- Title: A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception
- Title(参考訳): 自律走行車知覚のオンライン自己評価のための品質指標と方法
- Authors: Ce Zhang and Azim Eskandarian
- Abstract要約: 本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
- 参考スコア(独自算出の注目度): 164.93739293097605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable object detection using cameras plays a crucial role in enabling
autonomous vehicles to perceive their surroundings. However, existing
camera-based object detection approaches for autonomous driving lack the
ability to provide comprehensive feedback on detection performance for
individual frames. To address this limitation, we propose a novel evaluation
metric, named as the detection quality index (DQI), which assesses the
performance of camera-based object detection algorithms and provides
frame-by-frame feedback on detection quality. The DQI is generated by combining
the intensity of the fine-grained saliency map with the output results of the
object detection algorithm. Additionally, we have developed a superpixel-based
attention network (SPA-NET) that utilizes raw image pixels and superpixels as
input to predict the proposed DQI evaluation metric. To validate our approach,
we conducted experiments on three open-source datasets. The results demonstrate
that the proposed evaluation metric accurately assesses the detection quality
of camera-based systems in autonomous driving environments. Furthermore, the
proposed SPA-NET outperforms other popular image-based quality regression
models. This highlights the effectiveness of the DQI in evaluating a camera's
ability to perceive visual scenes. Overall, our work introduces a valuable
self-evaluation tool for camera-based object detection in autonomous vehicles.
- Abstract(参考訳): カメラを用いた信頼性の高い物体検出は、自動運転車が周囲を知覚する上で重要な役割を果たす。
しかし、既存のカメラによる自律走行のためのオブジェクト検出アプローチでは、個々のフレームに対する検出性能に対する包括的なフィードバックを提供する能力が欠如している。
この制限に対処するため,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価し,検出品質に対するフレーム単位のフィードバックを提供する。
DQIは、細粒度分布マップの強度とオブジェクト検出アルゴリズムの出力結果とを組み合わせて生成される。
さらに,生の画素とスーパーピクセルを入力として,提案するdqi評価指標を予測するスーパーピクセルベースのアテンションネットワーク(spa-net)を開発した。
このアプローチを検証するために、3つのオープンソースデータセットの実験を行った。
その結果,自動走行環境におけるカメラベースシステムの検知品質を精度良く評価できることがわかった。
さらに、提案したSPA-NETは他の画像ベースの品質回帰モデルよりも優れている。
このことは、DQIが視覚シーンを知覚するカメラの能力を評価する上での有効性を強調している。
われわれの研究は、自動運転車におけるカメラによる物体検出のための貴重な自己評価ツールを導入している。
関連論文リスト
- UAV-Based Human Body Detector Selection and Fusion for Geolocated Saliency Map Generation [0.2499907423888049]
無人航空機(UAV)を用いた探索・救助など多くの応用分野において、ソフトリアルタイムの異なるクラスの物体を確実に検出・位置決めする問題は不可欠である。
本研究は、システムコンテキストの視覚に基づく検出器の選択、割り当て、実行の相補的な問題に対処する。
検出結果は,新しいセンサモデルを利用して,正と負の両方の観測を視覚ベースで検出する,有意な位置の地図を構築する手法を用いて融合される。
論文 参考訳(メタデータ) (2024-08-29T13:00:37Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - A Feature-based Approach for the Recognition of Image Quality
Degradation in Automotive Applications [0.0]
本稿では,自動車アプリケーションにおける画像品質の劣化を検知する特徴に基づくアルゴリズムを提案する。
異なるデータセットを用いた実験により、このアルゴリズムはカメラレンズに付着した汚れを検知し、異なるタイプの画像劣化を分類できることが示された。
論文 参考訳(メタデータ) (2023-03-13T13:40:09Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - Multi-Camera Sensor Fusion for Visual Odometry using Deep Uncertainty
Estimation [34.8860186009308]
複数の車載カメラからの姿勢推定と不確実性推定の両方を用いて車両の動きを推定する深層センサ融合フレームワークを提案する。
我々は、利用可能な大規模自動運転車データセットnuScenesに対する我々のアプローチを評価した。
論文 参考訳(メタデータ) (2021-12-23T19:44:45Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Identity-Aware Attribute Recognition via Real-Time Distributed Inference
in Mobile Edge Clouds [53.07042574352251]
我々は、MEC対応カメラ監視システムにおいて、re-IDを用いた歩行者属性認識のための新しいモデルの設計を行う。
本稿では,属性認識と人物再IDを協調的に考慮し,分散モジュールの集合を持つ新しい推論フレームワークを提案する。
そこで我々は,提案した分散推論フレームワークのモジュール分布の学習に基づくアルゴリズムを考案した。
論文 参考訳(メタデータ) (2020-08-12T12:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。