論文の概要: Enhancing Nighttime Vehicle Detection with Day-to-Night Style Transfer and Labeling-Free Augmentation
- arxiv url: http://arxiv.org/abs/2412.16478v1
- Date: Sat, 21 Dec 2024 04:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:01:47.889442
- Title: Enhancing Nighttime Vehicle Detection with Day-to-Night Style Transfer and Labeling-Free Augmentation
- Title(参考訳): 昼夜型移動とラベリングフリー増強による夜間車両検出の強化
- Authors: Yunxiang Yang, Hao Zhen, Yongcan Huang, Jidong J. Yang,
- Abstract要約: 本研究では、CARLA生成合成データを利用したラベリングフリーなデータ拡張のための新しいフレームワークを提案する。
特に、このフレームワークは、現実的な日々のスタイルの転送のために、効率的な注意生成広告ネットワークを組み込んでいる。
提案手法の有効性を評価するため,夜間の農村環境に特化して収集したデータセットを用いてYOLO11モデルを微調整した。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License:
- Abstract: Existing deep learning-based object detection models perform well under daytime conditions but face significant challenges at night, primarily because they are predominantly trained on daytime images. Additionally, training with nighttime images presents another challenge: even human annotators struggle to accurately label objects in low-light conditions. This issue is particularly pronounced in transportation applications, such as detecting vehicles and other objects of interest on rural roads at night, where street lighting is often absent, and headlights may introduce undesirable glare. This study addresses these challenges by introducing a novel framework for labeling-free data augmentation, leveraging CARLA-generated synthetic data for day-to-night image style transfer. Specifically, the framework incorporates the Efficient Attention Generative Adversarial Network for realistic day-to-night style transfer and uses CARLA-generated synthetic nighttime images to help the model learn vehicle headlight effects. To evaluate the efficacy of the proposed framework, we fine-tuned the YOLO11 model with an augmented dataset specifically curated for rural nighttime environments, achieving significant improvements in nighttime vehicle detection. This novel approach is simple yet effective, offering a scalable solution to enhance AI-based detection systems in low-visibility environments and extend the applicability of object detection models to broader real-world contexts.
- Abstract(参考訳): 既存のディープラーニングに基づく物体検出モデルは、日中の条件下では良好に機能するが、主に日中の画像で主に訓練されているため、夜間において重大な課題に直面している。
人間のアノテータでさえ、低照度条件下でのオブジェクトの正確なラベル付けに苦労しています。
この問題は、夜間に路面照明が欠如し、ヘッドライトが望ましくない光を放つ道路で車両などの関心事を検出するといった輸送用途において特に顕著である。
本研究では、CARLA生成合成データを利用したラベリングフリーなデータ拡張のための新しいフレームワークを導入することで、これらの課題に対処する。
具体的には,CARLAで生成した合成夜間画像を用いて,車両のヘッドライト効果の学習を支援する。
提案手法の有効性を評価するため, 都市部における夜間車両検出の大幅な改善を図り, 夜間環境に特化して構築した拡張データセットを用いて, YOLO11モデルを微調整した。
この新しいアプローチはシンプルだが効果的であり、低可視環境におけるAIベースの検出システムを強化し、オブジェクト検出モデルの適用性をより広い現実世界のコンテキストに拡張するためのスケーラブルなソリューションを提供する。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Sun Off, Lights On: Photorealistic Monocular Nighttime Simulation for Robust Semantic Perception [53.631644875171595]
夜間のシーンは、学習したモデルで意味的に知覚し、人間に注釈を付けるのは難しい。
本手法は,1枚の画像の夜間シミュレーションを3Dで行う方法として,サンオフ,ライトオン (SOLO) と命名された。
夜間画像の視覚的品質と光リアリズムは,拡散モデルを含む競合するアプローチよりも優れているだけでなく,従来の画像は,昼夜適応における意味的夜間セグメンテーションに有益であることが証明されている。
論文 参考訳(メタデータ) (2024-07-29T18:00:09Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Radar Enlighten the Dark: Enhancing Low-Visibility Perception for
Automated Vehicles with Camera-Radar Fusion [8.946655323517094]
低視認性条件に対処するために,トランスフォーマーを用いた新しい3次元オブジェクト検出モデル"REDFormer"を提案する。
我々のモデルは、分類と検出精度で最先端(SOTA)モデルより優れている。
論文 参考訳(メタデータ) (2023-05-27T00:47:39Z) - Combining Visual Saliency Methods and Sparse Keypoint Annotations to
Providently Detect Vehicles at Night [2.0299248281970956]
視覚的サリエンシとスパースなキーポイントアノテーションに基づいて異なるオブジェクト表現を作成するための、潜在的なサリエンシに基づくアプローチについて検討する。
このアプローチは、異なるオブジェクト表現の自動導出を可能にする。
我々は、実際に見えるようになる前に夜間に車両を検知する問題を研究するための、より強力なツールや方法を提供する。
論文 参考訳(メタデータ) (2022-04-25T09:56:34Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - A Dataset for Provident Vehicle Detection at Night [3.1969855247377827]
この直感的な人間の行動をコンピュータビジョンアルゴリズムにマッピングし、夜間に来るべき車両を検知する方法の問題点について検討する。
夜間の農村環境における346の異なるシーンのうち,59746の注釈付きグレースケール画像を含む大規模なオープンソースデータセットを提案する。
光反射などの視覚的手がかりを客観的に記述する上で,データセットの特徴と課題について論じる。
論文 参考訳(メタデータ) (2021-05-27T15:31:33Z) - Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer [19.33490492872067]
画像翻訳手法を用いて,物体検出時の精度低下を悪条件に緩和する枠組みを提案する。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
論文 参考訳(メタデータ) (2021-05-11T13:18:50Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Night-time Scene Parsing with a Large Real Dataset [67.11211537439152]
我々は,夜間シーン解析(NTSP)の問題に対処することを目指しており,主な課題が2つある。
夜間データの不足に対処するため、実夜間画像4,297枚からなる新しいラベル付きデータセット、NightCityを収集した。
また,NTSP問題に対処するための露出認識フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T18:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。