論文の概要: FogGuard: guarding YOLO against fog using perceptual loss
- arxiv url: http://arxiv.org/abs/2403.08939v1
- Date: Wed, 13 Mar 2024 20:13:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 22:27:10.691494
- Title: FogGuard: guarding YOLO against fog using perceptual loss
- Title(参考訳): FogGuard: 知覚的喪失を使用して、YOLOを霧から守る
- Authors: Soheil Gharatappeh, Sepideh Neshatfar, Salimeh Yasaei Sekeh, Vikas Dhiman,
- Abstract要約: FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、RTTSデータセットで57.78%のYOLOv3に対して69.43%のmAPを達成した。
- 参考スコア(独自算出の注目度): 5.868532677577194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel fog-aware object detection network called FogGuard, designed to address the challenges posed by foggy weather conditions. Autonomous driving systems heavily rely on accurate object detection algorithms, but adverse weather conditions can significantly impact the reliability of deep neural networks (DNNs). Existing approaches fall into two main categories, 1) image enhancement such as IA-YOLO 2) domain adaptation based approaches. Image enhancement based techniques attempt to generate fog-free image. However, retrieving a fogless image from a foggy image is a much harder problem than detecting objects in a foggy image. Domain-adaptation based approaches, on the other hand, do not make use of labelled datasets in the target domain. Both categories of approaches are attempting to solve a harder version of the problem. Our approach builds over fine-tuning on the Our framework is specifically designed to compensate for foggy conditions present in the scene, ensuring robust performance even. We adopt YOLOv3 as the baseline object detection algorithm and introduce a novel Teacher-Student Perceptual loss, to high accuracy object detection in foggy images. Through extensive evaluations on common datasets such as PASCAL VOC and RTTS, we demonstrate the improvement in performance achieved by our network. We demonstrate that FogGuard achieves 69.43\% mAP, as compared to 57.78\% for YOLOv3 on the RTTS dataset. Furthermore, we show that while our training method increases time complexity, it does not introduce any additional overhead during inference compared to the regular YOLO network.
- Abstract(参考訳): 本稿では,霧の気象条件に起因した課題に対処するために,フォグガードと呼ばれる新しい霧を意識した物体検出ネットワークを提案する。
自律運転システムは正確な物体検出アルゴリズムに大きく依存しているが、悪天候条件はディープニューラルネットワーク(DNN)の信頼性に大きな影響を及ぼす可能性がある。
既存のアプローチは2つの主要なカテゴリに分類される。
1)IA-YOLO等の画像強調
2)ドメイン適応に基づくアプローチ。
画像強調に基づく手法は、霧のない画像を生成する。
しかし、霧画像から霧のない画像を取得することは、霧画像中の物体を検出するよりもはるかに難しい問題である。
一方、ドメイン適応ベースのアプローチでは、ターゲットドメイン内のラベル付きデータセットを使用しない。
どちらのカテゴリのアプローチも、問題のより難しいバージョンを解決しようとしている。
我々のフレームワークは、シーンに存在する霧の条件を補償し、堅牢なパフォーマンスを確保するように設計されています。
我々は, YOLOv3をベースラインオブジェクト検出アルゴリズムとして採用し, 霧画像の高精度物体検出に新しい教師-学生知覚損失を導入している。
PASCAL VOCやRTTSといった共通データセットの広範な評価を通じて,ネットワークの性能向上を実証する。
RTTSデータセットの YOLOv3 では 57.78 % に対して,FogGuard が 69.43 % mAP を達成した。
さらに, トレーニング手法は時間的複雑さを増大させるが, 通常のYOLOネットワークと比較して, 推論時のオーバーヘッドは増加しないことを示す。
関連論文リスト
- D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - DA-RAW: Domain Adaptive Object Detection for Real-World Adverse Weather
Conditions [2.3020018305241337]
悪天候下での物体検出のための教師なし領域適応フレームワークを提案する。
提案手法は,高次特徴のスタイル関連情報に集中することで,スタイルギャップを解消する。
自己教師付きコントラスト学習を用いて、我々のフレームワークは、気象のギャップを減らし、気象汚染に対して堅牢な事例特徴を取得する。
論文 参考訳(メタデータ) (2023-09-15T04:37:28Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Domain Adaptive Object Detection for Autonomous Driving under Foggy
Weather [25.964194141706923]
本稿では,霧気候下での自律走行のための新しい領域適応型物体検出フレームワークを提案する。
本手法は画像レベルの適応とオブジェクトレベルの適応を両立させ,画像スタイルとオブジェクトの外観における領域差を低減させる。
評価実験の結果,提案手法の有効性と精度が示された。
論文 参考訳(メタデータ) (2022-10-27T05:09:10Z) - GDIP: Gated Differentiable Image Processing for Object-Detection in
Adverse Conditions [15.327704761260131]
本稿では,ドメインに依存しないネットワークアーキテクチャであるGated Differentiable Image Processing (GDIP)ブロックを提案する。
提案するGDIPブロックは、下流の物体検出損失から画像を直接拡張することを学ぶ。
いくつかの最先端手法による検出性能の大幅な向上を示す。
論文 参考訳(メタデータ) (2022-09-29T16:43:13Z) - Image-Adaptive YOLO for Object Detection in Adverse Weather Conditions [34.993786158059436]
本稿では,画像適応型YOLO(IA-YOLO)フレームワークを提案する。
具体的には、YOLO検出器の悪天候を考慮した微分可能画像処理(DIP)モジュールを提示する。
我々は、CNN-PPとYOLOv3をエンドツーエンドで共同で学習し、CNN-PPが適切なDIPを学習し、弱い教師付きで検出のための画像を強化することを保証する。
論文 参考訳(メタデータ) (2021-12-15T12:54:17Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - Camera Invariant Feature Learning for Generalized Face Anti-spoofing [95.30490139294136]
本稿では,特徴レベルの取得カメラから固有のばらつきの影響を排除したフレームワークについて述べる。
実験により、提案手法はデータセット内設定とデータセット間設定の両方でより良いパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2021-01-25T13:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。