論文の概要: A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception
- arxiv url: http://arxiv.org/abs/2203.02588v1
- Date: Fri, 4 Mar 2022 22:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 18:36:17.207469
- Title: A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception
- Title(参考訳): 自律走行車知覚のオンライン自己評価のための品質指標と方法
- Authors: Ce Zhang and Azim Eskandarian
- Abstract要約: 現在の自律走行用カメラベース物体検出ソリューションでは,各フレームに対する検出性能に対するフィードバックが得られない。
本稿では,カメラを用いた物体検出アルゴリズムの性能評価のための評価指標,すなわち知覚品質指標(PQI)を提案する。
知覚品質指数は、カメラの視覚的シーン知覚を自己評価するのに有用であることが示されている。
- 参考スコア(独自算出の注目度): 164.93739293097605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception is critical to autonomous driving safety. Camera-based object
detection is one of the most important methods for autonomous vehicle
perception. Current camera-based object detection solutions for autonomous
driving cannot provide feedback on the detection performance for each frame. We
propose an evaluation metric, namely the perception quality index (PQI), to
assess the camera-based object detection algorithm performance and provide the
perception quality feedback frame by frame. The method of the PQI generation is
by combining the fine-grained saliency map intensity with the object detection
algorithm's output results. Furthermore, we developed a superpixel-based
attention network (SPA-NET) to predict the proposed PQI evaluation metric by
using raw image pixels and superpixels as input. The proposed evaluation metric
and prediction network are tested on three open-source datasets. The proposed
evaluation metric can correctly assess the camera-based perception quality
under the autonomous driving environment according to the experiment results.
The network regression R-square values determine the comparison among models.
It is shown that a Perception Quality Index is useful in self-evaluating a
cameras visual scene perception.
- Abstract(参考訳): 認識は自動運転の安全性に不可欠である。
カメラによる物体検出は、自動運転車の知覚において最も重要な方法の1つである。
現在の自律走行用カメラベース物体検出ソリューションでは,各フレームに対する検出性能に対するフィードバックが得られない。
本稿では、カメラによる物体検出アルゴリズムの性能評価のための評価指標、すなわち知覚品質指標(PQI)を提案し、フレーム単位の知覚品質フィードバックフレームを提供する。
pqi生成の方法は、細粒度の塩分マップ強度とオブジェクト検出アルゴリズムの出力結果を組み合わせたものである。
さらに,原画像画素とスーパーピクセルを入力として,提案したPQI評価指標を予測するために,スーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
提案した評価基準と予測ネットワークは3つのオープンソースデータセットで検証される。
提案した評価基準は, 自律走行環境下でのカメラによる知覚品質を, 実験結果に応じて正確に評価することができる。
ネットワーク回帰 r-平方値はモデル間の比較を決定する。
知覚品質指数は、カメラの視覚的シーン知覚を自己評価するのに有用である。
関連論文リスト
- UAV-Based Human Body Detector Selection and Fusion for Geolocated Saliency Map Generation [0.2499907423888049]
無人航空機(UAV)を用いた探索・救助など多くの応用分野において、ソフトリアルタイムの異なるクラスの物体を確実に検出・位置決めする問題は不可欠である。
本研究は、システムコンテキストの視覚に基づく検出器の選択、割り当て、実行の相補的な問題に対処する。
検出結果は,新しいセンサモデルを利用して,正と負の両方の観測を視覚ベースで検出する,有意な位置の地図を構築する手法を用いて融合される。
論文 参考訳(メタデータ) (2024-08-29T13:00:37Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - A Feature-based Approach for the Recognition of Image Quality
Degradation in Automotive Applications [0.0]
本稿では,自動車アプリケーションにおける画像品質の劣化を検知する特徴に基づくアルゴリズムを提案する。
異なるデータセットを用いた実験により、このアルゴリズムはカメラレンズに付着した汚れを検知し、異なるタイプの画像劣化を分類できることが示された。
論文 参考訳(メタデータ) (2023-03-13T13:40:09Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - Multi-Camera Sensor Fusion for Visual Odometry using Deep Uncertainty
Estimation [34.8860186009308]
複数の車載カメラからの姿勢推定と不確実性推定の両方を用いて車両の動きを推定する深層センサ融合フレームワークを提案する。
我々は、利用可能な大規模自動運転車データセットnuScenesに対する我々のアプローチを評価した。
論文 参考訳(メタデータ) (2021-12-23T19:44:45Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Identity-Aware Attribute Recognition via Real-Time Distributed Inference
in Mobile Edge Clouds [53.07042574352251]
我々は、MEC対応カメラ監視システムにおいて、re-IDを用いた歩行者属性認識のための新しいモデルの設計を行う。
本稿では,属性認識と人物再IDを協調的に考慮し,分散モジュールの集合を持つ新しい推論フレームワークを提案する。
そこで我々は,提案した分散推論フレームワークのモジュール分布の学習に基づくアルゴリズムを考案した。
論文 参考訳(メタデータ) (2020-08-12T12:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。