論文の概要: FogGuard: guarding YOLO against fog using perceptual loss
- arxiv url: http://arxiv.org/abs/2403.08939v2
- Date: Fri, 11 Oct 2024 18:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:03:57.657498
- Title: FogGuard: guarding YOLO against fog using perceptual loss
- Title(参考訳): FogGuard: 知覚的喪失を使用して、YOLOを霧から守る
- Authors: Soheil Gharatappeh, Sepideh Neshatfar, Salimeh Yasaei Sekeh, Vikas Dhiman,
- Abstract要約: FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、YOLOv3をベースラインアルゴリズムとして組み込むことで、シーン内の霧の状態を補償する。
我々のネットワークは、RTTSデータセット上でのYOLOv3の57.78%と比較して、69.43%のmAPを達成した。
- 参考スコア(独自算出の注目度): 5.868532677577194
- License:
- Abstract: In this paper, we present FogGuard, a novel fog-aware object detection network designed to address the challenges posed by foggy weather conditions. Autonomous driving systems heavily rely on accurate object detection algorithms, but adverse weather conditions can significantly impact the reliability of deep neural networks (DNNs). Existing approaches include image enhancement techniques like IA-YOLO and domain adaptation methods. While image enhancement aims to generate clear images from foggy ones, which is more challenging than object detection in foggy images, domain adaptation does not require labeled data in the target domain. Our approach involves fine-tuning on a specific dataset to address these challenges efficiently. FogGuard compensates for foggy conditions in the scene, ensuring robust performance by incorporating YOLOv3 as the baseline algorithm and introducing a unique Teacher-Student Perceptual loss for accurate object detection in foggy environments. Through comprehensive evaluations on standard datasets like PASCAL VOC and RTTS, our network significantly improves performance, achieving a 69.43\% mAP compared to YOLOv3's 57.78\% on the RTTS dataset. Additionally, we demonstrate that while our training method slightly increases time complexity, it doesn't add overhead during inference compared to the regular YOLO network.
- Abstract(参考訳): 本稿では,フォグガード(FogGuard)について述べる。フォグガード(FogGuard)は,霧の気象条件に起因した課題に対処するために設計された,新しい霧を意識した物体検出ネットワークである。
自律運転システムは正確な物体検出アルゴリズムに大きく依存しているが、悪天候条件はディープニューラルネットワーク(DNN)の信頼性に大きな影響を及ぼす可能性がある。
既存のアプローチにはIA-YOLOのような画像強調技術やドメイン適応手法がある。
画像強調は、霧画像の物体検出よりも難しい霧画像から鮮明な画像を生成することを目的としているが、領域適応は対象領域のラベル付きデータを必要としない。
このアプローチでは、これらの課題に効率的に対処するために、特定のデータセットを微調整する。
FogGuardは、現場の霧の条件を補償し、YOLOv3をベースラインアルゴリズムとして取り入れ、霧の環境における正確な物体検出のためにユニークなTeacher-Student Perceptual Losを導入したことで、堅牢なパフォーマンスを確保する。
PASCAL VOCやRTTSといった標準データセットの包括的な評価を通じて、我々のネットワークはパフォーマンスを大幅に改善し、RTTSデータセット上でのYOLOv3の57.78\%と比較して69.43\%mAPを達成した。
さらに、トレーニング手法は時間的複雑さをわずかに増加させるが、通常のYOLOネットワークに比べて推論時にオーバーヘッドを増大させることはないことを示した。
関連論文リスト
- D2SL: Decouple Defogging and Semantic Learning for Foggy Domain-Adaptive Segmentation [0.8261182037130406]
そこで我々は,D2SLと呼ばれる新しい学習フレームワークD2SLを提案する。
本稿では,デファッギングタスクとセグメンテーションタスクの接続を確立するためのドメイン一貫性転送戦略を提案する。
実際の霧画像から霧の先行を十分に活用することにより、霧の消火効果を改善するために、実際の霧の移動戦略を設計する。
論文 参考訳(メタデータ) (2024-04-07T04:55:58Z) - D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - DA-RAW: Domain Adaptive Object Detection for Real-World Adverse Weather Conditions [2.048226951354646]
悪天候下での物体検出のための教師なし領域適応フレームワークを提案する。
提案手法は,高次特徴のスタイル関連情報に集中することで,スタイルギャップを解消する。
自己教師付きコントラスト学習を用いて、我々のフレームワークは、気象のギャップを減らし、気象汚染に対して堅牢な事例特徴を取得する。
論文 参考訳(メタデータ) (2023-09-15T04:37:28Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - GDIP: Gated Differentiable Image Processing for Object-Detection in
Adverse Conditions [15.327704761260131]
本稿では,ドメインに依存しないネットワークアーキテクチャであるGated Differentiable Image Processing (GDIP)ブロックを提案する。
提案するGDIPブロックは、下流の物体検出損失から画像を直接拡張することを学ぶ。
いくつかの最先端手法による検出性能の大幅な向上を示す。
論文 参考訳(メタデータ) (2022-09-29T16:43:13Z) - Image-Adaptive YOLO for Object Detection in Adverse Weather Conditions [34.993786158059436]
本稿では,画像適応型YOLO(IA-YOLO)フレームワークを提案する。
具体的には、YOLO検出器の悪天候を考慮した微分可能画像処理(DIP)モジュールを提示する。
我々は、CNN-PPとYOLOv3をエンドツーエンドで共同で学習し、CNN-PPが適切なDIPを学習し、弱い教師付きで検出のための画像を強化することを保証する。
論文 参考訳(メタデータ) (2021-12-15T12:54:17Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - Camera Invariant Feature Learning for Generalized Face Anti-spoofing [95.30490139294136]
本稿では,特徴レベルの取得カメラから固有のばらつきの影響を排除したフレームワークについて述べる。
実験により、提案手法はデータセット内設定とデータセット間設定の両方でより良いパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2021-01-25T13:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。