論文の概要: Evaluating the Impact of Weather-Induced Sensor Occlusion on BEVFusion for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2511.04347v1
- Date: Thu, 06 Nov 2025 13:25:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.429587
- Title: Evaluating the Impact of Weather-Induced Sensor Occlusion on BEVFusion for 3D Object Detection
- Title(参考訳): 気象センサの閉塞が3次元物体検出におけるBEVフュージョンに及ぼす影響評価
- Authors: Sanjay Kumar, Tim Brophy, Eoin Martino Grua, Ganesh Sistu, Valentina Donzella, Ciaran Eising,
- Abstract要約: 3Dオブジェクト検出は、自動運転車が現実世界の環境で安全にナビゲートするために不可欠である。
Bird's Eye Viewは、マルチセンサーデータをトップダウン空間フォーマットに投影する。
BEVベースの核融合アーキテクチャはマルチモーダル統合により高い性能を示したが、センサの閉塞が3次元検出精度に与える影響は未解明のままである。
- 参考スコア(独自算出の注目度): 5.040917371256648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 3D object detection is essential for automated vehicles to navigate safely in complex real-world environments. Bird's Eye View (BEV) representations, which project multi-sensor data into a top-down spatial format, have emerged as a powerful approach for robust perception. Although BEV-based fusion architectures have demonstrated strong performance through multimodal integration, the effects of sensor occlusions, caused by environmental conditions such as fog, haze, or physical obstructions, on 3D detection accuracy remain underexplored. In this work, we investigate the impact of occlusions on both camera and Light Detection and Ranging (LiDAR) outputs using the BEVFusion architecture, evaluated on the nuScenes dataset. Detection performance is measured using mean Average Precision (mAP) and the nuScenes Detection Score (NDS). Our results show that moderate camera occlusions lead to a 41.3% drop in mAP (from 35.6% to 20.9%) when detection is based only on the camera. On the other hand, LiDAR sharply drops in performance only under heavy occlusion, with mAP falling by 47.3% (from 64.7% to 34.1%), with a severe impact on long-range detection. In fused settings, the effect depends on which sensor is occluded: occluding the camera leads to a minor 4.1% drop (from 68.5% to 65.7%), while occluding LiDAR results in a larger 26.8% drop (to 50.1%), revealing the model's stronger reliance on LiDAR for the task of 3D object detection. Our results highlight the need for future research into occlusion-aware evaluation methods and improved sensor fusion techniques that can maintain detection accuracy in the presence of partial sensor failure or degradation due to adverse environmental conditions.
- Abstract(参考訳): 3Dオブジェクトの正確な検出は、自動運転車が複雑な現実世界の環境で安全にナビゲートするために不可欠である。
マルチセンサーデータをトップダウン空間形式に投影するBird's Eye View (BEV)表現は、堅牢な知覚のための強力なアプローチとして登場した。
BEVをベースとした核融合アーキテクチャは、マルチモーダル統合による強力な性能を示すが、霧やヘイズ、物理的障害物などの環境条件によるセンサの閉塞が3次元検出精度に与える影響は未調査のままである。
本研究では, カメラと光検出・ラング(LiDAR)出力の両方に対するオクルージョンの影響を, nuScenesデータセットで評価したBEVFusionアーキテクチャを用いて検討する。
平均精度 (mAP) と nuScenes Detection Score (NDS) を用いて検出性能を測定する。
以上の結果から,中程度のカメラ閉塞は,検出がカメラのみに基づく場合,mAPが41.3%低下する(35.6%から20.9%)ことが示唆された。
一方、LiDARは重い閉塞下でのみ性能が急落し、mAPは47.3%低下(64.7%から34.1%)し、長距離検出に深刻な影響を及ぼした。
カメラを外すと4.1%(68.5%から65.7%)、LiDARを外すと26.8%(50.1%)、LiDARが3Dオブジェクト検出に強く依存していることが分かる。
本研究は, センサの故障や環境条件の悪化を検知し, 検出精度を維持できるセンサ融合技術の改良と, 咬合認識評価手法の今後の研究の必要性を強調した。
関連論文リスト
- Event-based Civil Infrastructure Visual Defect Detection: ev-CIVIL Dataset and Benchmark [6.27237464820498]
小型無人航空機(UAV)による視覚検査は、土木構造物の欠陥を調べるための手動検査に代わる効果的な方法である。
従来のフレームベースのカメラは、UAVベースの検査で広く使用されるが、しばしば低い照明条件やダイナミックな照明条件下で欠陥を捉えるのに苦労する。
本研究では、視覚センサ(DVS)を用いた時間イベントストリームとして欠陥面をキャプチャする、最初のイベントベース土木インフラストラクチャ欠陥検出データセットを提案する。
このデータセットは、亀裂とスポーリングという2つのタイプの欠陥に焦点を当てており、フィールド環境とラボ環境の両方からのデータを含んでいる。
論文 参考訳(メタデータ) (2025-04-08T04:44:33Z) - Availability-aware Sensor Fusion via Unified Canonical Space for 4D Radar, LiDAR, and Camera [6.636342419996716]
本稿では,ASF (Availability-Aware Sensor fusion) を提案する。UCP (Unified Canonical projection) を用いて,パッチ(CASAP) に沿ったセンサ間の融合とクロスアテンションを実現する。
提案したASFは,各種気象条件およびセンサ劣化(または故障)条件下での既存の最先端核融合法よりも優れた物体検出性能を示す。
論文 参考訳(メタデータ) (2025-03-10T08:10:28Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - SAFE: Sensitivity-Aware Features for Out-of-Distribution Object
Detection [10.306996649145464]
バッチ正規化による残差畳み込み層は感性認識機能(SAFE)を生じることを示す。
SAFEは、分布外検出と分布内検出を区別するために一貫して強力である。
検出対象毎にSAFEベクターを抽出し,サロゲートタスクで多層パーセプトロンを訓練し,クリーンな分布内例から逆摂動を識別する。
論文 参考訳(メタデータ) (2022-08-29T23:57:55Z) - Long-Range Thermal 3D Perception in Low Contrast Environments [0.0]
本報告では, マイクロボロメータを用いたLWIR(Long Wave Infrared)検出器の感度の劇的改善の実現可能性を証明するため, フェーズIの取り組みの結果について述べる。
結果として生じる低SWaP-C熱深度センシングシステムにより、高度空力(AAM)のための自律型航空車両の状況把握が可能となる。
低コントラストの静的および移動物体を含む周囲環境の堅牢な3D情報を提供する。
論文 参考訳(メタデータ) (2021-12-10T01:16:44Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。