論文の概要: SemOD: Semantic Enabled Object Detection Network under Various Weather Conditions
- arxiv url: http://arxiv.org/abs/2511.22142v1
- Date: Thu, 27 Nov 2025 06:19:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.421932
- Title: SemOD: Semantic Enabled Object Detection Network under Various Weather Conditions
- Title(参考訳): SemOD:様々な気象条件下でのセマンティックオブジェクト検出ネットワーク
- Authors: Aiyinsi Zuo, Zhaoliang Zheng,
- Abstract要約: 多様な気象条件下での物体検出のための意味論的ネットワークを提案する。
我々の分析では、セマンティクス情報により、欠落した領域に対して可塑性コンテンツを生成することができる。
本手法は,全天候変換における意味データの利用の先駆者であり,その結果,mAPの1.47%から8.80%に増加した。
- 参考スコア(独自算出の注目度): 1.5278471408515728
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the field of autonomous driving, camera-based perception models are mostly trained on clear weather data. Models that focus on addressing specific weather challenges are unable to adapt to various weather changes and primarily prioritize their weather removal characteristics. Our study introduces a semantic-enabled network for object detection in diverse weather conditions. In our analysis, semantics information can enable the model to generate plausible content for missing areas, understand object boundaries, and preserve visual coherency and realism across both filled-in and existing portions of the image, which are conducive to image transformation and object recognition. Specific in implementation, our architecture consists of a Preprocessing Unit (PPU) and a Detection Unit (DTU), where the PPU utilizes a U-shaped net enriched by semantics to refine degraded images, and the DTU integrates this semantic information for object detection using a modified YOLO network. Our method pioneers the use of semantic data for all-weather transformations, resulting in an increase between 1.47\% to 8.80\% in mAP compared to existing methods across benchmark datasets of different weather. This highlights the potency of semantics in image enhancement and object detection, offering a comprehensive approach to improving object detection performance. Code will be available at https://github.com/EnisZuo/SemOD.
- Abstract(参考訳): 自律運転の分野では、カメラベースの知覚モデルは、主に晴れた天気データに基づいて訓練されている。
特定の気象問題に対処することに焦点を当てたモデルは、様々な気象変化に対応できず、主に天候の除去特性を優先する。
本研究では,多様な気象条件下での物体検出のための意味論的ネットワークを提案する。
本分析では,画像変換や物体認識に寄与する画像の既存部分と内包部分の両面に視覚的コヒーレンシーとリアリズムを保ちながら,不在領域の可視コンテンツを生成することができる。
本アーキテクチャはプリプロセッシングユニット (PPU) と検出ユニット (DTU) から構成されており、PPUは意味論的に富んだU字型ネットを用いて劣化画像を洗練し、DTUはこの意味情報を改良されたYOLOネットワークを用いてオブジェクト検出のために統合する。
本手法は,全天候変換における意味データの利用の先駆者であり,気象の異なるベンチマークデータセットの既存手法と比較して,mAPの1.47\%から8.80\%に増加した。
これは、画像強調とオブジェクト検出における意味論の有用性を強調し、オブジェクト検出性能を改善するための包括的なアプローチを提供する。
コードはhttps://github.com/EnisZuo/SemOD.comで入手できる。
関連論文リスト
- WeatherDiffusion: Weather-Guided Diffusion Model for Forward and Inverse Rendering [40.94600501568197]
WeatherDiffusionは、自動運転シーンの前方および逆レンダリングのための拡散ベースのフレームワークである。
本手法は, 物質特性, シーン形状, 照明の正確な推定を可能にするとともに, 制御可能な天気や照明の編集もサポートする。
論文 参考訳(メタデータ) (2025-08-09T13:29:39Z) - Exploring the Application of Large-scale Pre-trained Models on Adverse
Weather Removal [97.53040662243768]
ネットワークが異なる気象条件を適応的に処理できるようにするために,CLIP埋め込みモジュールを提案する。
このモジュールは、CLIP画像エンコーダによって抽出されたサンプル特定気象と、パラメータセットによって学習された分布特定情報を統合する。
論文 参考訳(メタデータ) (2023-06-15T10:06:13Z) - MapFormer: Boosting Change Detection by Using Pre-change Information [2.436285270638041]
地表面の特徴を記述した既存の地図を両時間画像の変化検出に活用する。
潜在表現の連結による付加情報の簡易な統合は、最先端の変更検出方法よりもはるかに優れていることを示す。
提案手法は,DynamicEarthNet と HRSCD のバイナリ変更 IoU において,絶対 11.7% と 18.4% で既存の変更検出手法より優れている。
論文 参考訳(メタデータ) (2023-03-31T07:39:12Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。