論文の概要: ADAM-Dehaze: Adaptive Density-Aware Multi-Stage Dehazing for Improved Object Detection in Foggy Conditions
- arxiv url: http://arxiv.org/abs/2506.15837v1
- Date: Mon, 16 Jun 2025 08:00:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.823824
- Title: ADAM-Dehaze: Adaptive Density-Aware Multi-Stage Dehazing for Improved Object Detection in Foggy Conditions
- Title(参考訳): ADAM-Dehaze: 適応密度対応多段階脱ヘイズによる卵様条件下での物体検出の改善
- Authors: Fatmah AlHindaassi, Mohammed Talha Alam, Fakhri Karray,
- Abstract要約: 逆気象条件、特に霧は、自動運転車、監視システム、その他の安全上重要なアプリケーションに重大な課題をもたらす。
霧強度の異なる画像復元と物体検出を共同で最適化する適応型高密度脱ヘイズフレームワークであるADAM-Dehazeを紹介する。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adverse weather conditions, particularly fog, pose a significant challenge to autonomous vehicles, surveillance systems, and other safety-critical applications by severely degrading visual information. We introduce ADAM-Dehaze, an adaptive, density-aware dehazing framework that jointly optimizes image restoration and object detection under varying fog intensities. A lightweight Haze Density Estimation Network (HDEN) classifies each input as light, medium, or heavy fog. Based on this score, the system dynamically routes the image through one of three CORUN branches: Light, Medium, or Complex, each tailored to its haze regime. A novel adaptive loss balances physical-model coherence and perceptual fidelity, ensuring both accurate defogging and preservation of fine details. On Cityscapes and the real-world RTTS benchmark, ADAM-Dehaze improves PSNR by up to 2.1 dB, reduces FADE by 30 percent, and increases object detection mAP by up to 13 points, while cutting inference time by 20 percent. These results highlight the importance of intensity-specific processing and seamless integration with downstream vision tasks. Code available at: https://github.com/talha-alam/ADAM-Dehaze.
- Abstract(参考訳): 逆気象条件、特に霧は、視覚情報を著しく劣化させることで、自動運転車、監視システム、その他の安全上重要なアプリケーションに重大な課題をもたらす。
霧強度の異なる画像復元と物体検出を共同で最適化する適応型高密度脱ヘイズフレームワークであるADAM-Dehazeを紹介する。
軽量ヘイズ密度推定ネットワーク(HDEN)は、各入力を光、媒質、重霧に分類する。
このスコアに基づいて、システムは画像を3つのCORUNブランチのうちの1つ(光、中、複合)に動的にルーティングする。
新たな適応的損失は、物理モデルコヒーレンスと知覚的忠実さのバランスを保ち、詳細の正確なデファグングと保存の両方を確実にする。
Cityscapesと現実のRTTSベンチマークでは、ADAM-DehazeはPSNRを最大2.1dB改善し、FADEを30%削減し、オブジェクト検出mAPを最大13ポイント向上し、推論時間を20%削減している。
これらの結果は、強度特異的な処理と下流視覚タスクとのシームレスな統合の重要性を強調している。
コードは、https://github.com/talha-alam/ADAM-Dehaze.comで公開されている。
関連論文リスト
- Multi-Knowledge-oriented Nighttime Haze Imaging Enhancer for Vision-driven Intelligent Systems [4.742689734374541]
ヘイズなどの逆画像条件は、画質を著しく劣化させる。
マルチ知識指向型夜間ヘイズイメージングエンハンサー(MKoIE)を提案する。
MKoIEは、昼間の脱毛、低照度強化、夜間の脱毛という3つのタスクを統合している。
論文 参考訳(メタデータ) (2025-02-11T08:22:21Z) - Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - FogGuard: guarding YOLO against fog using perceptual loss [5.868532677577194]
FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、YOLOv3をベースラインアルゴリズムとして組み込むことで、シーン内の霧の状態を補償する。
我々のネットワークは、RTTSデータセット上でのYOLOv3の57.78%と比較して、69.43%のmAPを達成した。
論文 参考訳(メタデータ) (2024-03-13T20:13:25Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。