論文の概要: FogGuard: guarding YOLO against fog using perceptual loss
- arxiv url: http://arxiv.org/abs/2403.08939v2
- Date: Fri, 11 Oct 2024 18:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:03:57.657498
- Title: FogGuard: guarding YOLO against fog using perceptual loss
- Title(参考訳): FogGuard: 知覚的喪失を使用して、YOLOを霧から守る
- Authors: Soheil Gharatappeh, Sepideh Neshatfar, Salimeh Yasaei Sekeh, Vikas Dhiman,
- Abstract要約: FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、YOLOv3をベースラインアルゴリズムとして組み込むことで、シーン内の霧の状態を補償する。
我々のネットワークは、RTTSデータセット上でのYOLOv3の57.78%と比較して、69.43%のmAPを達成した。
- 参考スコア(独自算出の注目度): 5.868532677577194
- License:
- Abstract: In this paper, we present FogGuard, a novel fog-aware object detection network designed to address the challenges posed by foggy weather conditions. Autonomous driving systems heavily rely on accurate object detection algorithms, but adverse weather conditions can significantly impact the reliability of deep neural networks (DNNs). Existing approaches include image enhancement techniques like IA-YOLO and domain adaptation methods. While image enhancement aims to generate clear images from foggy ones, which is more challenging than object detection in foggy images, domain adaptation does not require labeled data in the target domain. Our approach involves fine-tuning on a specific dataset to address these challenges efficiently. FogGuard compensates for foggy conditions in the scene, ensuring robust performance by incorporating YOLOv3 as the baseline algorithm and introducing a unique Teacher-Student Perceptual loss for accurate object detection in foggy environments. Through comprehensive evaluations on standard datasets like PASCAL VOC and RTTS, our network significantly improves performance, achieving a 69.43\% mAP compared to YOLOv3's 57.78\% on the RTTS dataset. Additionally, we demonstrate that while our training method slightly increases time complexity, it doesn't add overhead during inference compared to the regular YOLO network.
- Abstract(参考訳): 本稿では,フォグガード(FogGuard)について述べる。フォグガード(FogGuard)は,霧の気象条件に起因した課題に対処するために設計された,新しい霧を意識した物体検出ネットワークである。
自律運転システムは正確な物体検出アルゴリズムに大きく依存しているが、悪天候条件はディープニューラルネットワーク(DNN)の信頼性に大きな影響を及ぼす可能性がある。
既存のアプローチにはIA-YOLOのような画像強調技術やドメイン適応手法がある。
画像強調は、霧画像の物体検出よりも難しい霧画像から鮮明な画像を生成することを目的としているが、領域適応は対象領域のラベル付きデータを必要としない。
このアプローチでは、これらの課題に効率的に対処するために、特定のデータセットを微調整する。
FogGuardは、現場の霧の条件を補償し、YOLOv3をベースラインアルゴリズムとして取り入れ、霧の環境における正確な物体検出のためにユニークなTeacher-Student Perceptual Losを導入したことで、堅牢なパフォーマンスを確保する。
PASCAL VOCやRTTSといった標準データセットの包括的な評価を通じて、我々のネットワークはパフォーマンスを大幅に改善し、RTTSデータセット上でのYOLOv3の57.78\%と比較して69.43\%mAPを達成した。
さらに、トレーニング手法は時間的複雑さをわずかに増加させるが、通常のYOLOネットワークに比べて推論時にオーバーヘッドを増大させることはないことを示した。
関連論文リスト
- Robust ADAS: Enhancing Robustness of Machine Learning-based Advanced Driver Assistance Systems for Adverse Weather [5.383130566626935]
本稿では,デノイングディープニューラルネットワークを前処理ステップとして,悪天候画像から晴天画像へ変換する。
ドライバーの視認性が向上し、悪天候下での安全なナビゲーションに欠かせない。
論文 参考訳(メタデータ) (2024-07-02T18:03:52Z) - D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Enhancing Lidar-based Object Detection in Adverse Weather using Offset
Sequences in Time [1.1725016312484975]
ライダーによる物体検出は、雨や霧などの悪天候の影響を著しく受けている。
本研究は,ライダーによる物体検出の信頼性に対する悪天候の影響を緩和する有効な方法の総合的研究である。
論文 参考訳(メタデータ) (2024-01-17T08:31:58Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - GDIP: Gated Differentiable Image Processing for Object-Detection in
Adverse Conditions [15.327704761260131]
本稿では,ドメインに依存しないネットワークアーキテクチャであるGated Differentiable Image Processing (GDIP)ブロックを提案する。
提案するGDIPブロックは、下流の物体検出損失から画像を直接拡張することを学ぶ。
いくつかの最先端手法による検出性能の大幅な向上を示す。
論文 参考訳(メタデータ) (2022-09-29T16:43:13Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Image-Adaptive YOLO for Object Detection in Adverse Weather Conditions [34.993786158059436]
本稿では,画像適応型YOLO(IA-YOLO)フレームワークを提案する。
具体的には、YOLO検出器の悪天候を考慮した微分可能画像処理(DIP)モジュールを提示する。
我々は、CNN-PPとYOLOv3をエンドツーエンドで共同で学習し、CNN-PPが適切なDIPを学習し、弱い教師付きで検出のための画像を強化することを保証する。
論文 参考訳(メタデータ) (2021-12-15T12:54:17Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。