論文の概要: Efficient Dual-domain Image Dehazing with Haze Prior Perception
- arxiv url: http://arxiv.org/abs/2507.11035v1
- Date: Tue, 15 Jul 2025 06:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.007571
- Title: Efficient Dual-domain Image Dehazing with Haze Prior Perception
- Title(参考訳): ヘイズ先行認識による高能率デュアルドメイン画像デハジング
- Authors: Lirong Zheng, Yanshan Li, Rui Yu, Kaihao Zhang,
- Abstract要約: トランスフォーマーベースのモデルは、シングルイメージのデハージングにおいて強力なグローバルモデリング能力を示すが、その高い計算コストはリアルタイム適用性を制限する。
そこで我々はDGFDNet(Dark Channel Guided Frequency-aware Dehazing Network)を提案する。
4つのベンチマークハウズデータセットの実験により、DGFDNetは、より優れた堅牢性とリアルタイム効率で最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 17.18810808188725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based models exhibit strong global modeling capabilities in single-image dehazing, but their high computational cost limits real-time applicability. Existing methods predominantly rely on spatial-domain features to capture long-range dependencies, which are computationally expensive and often inadequate under complex haze conditions. While some approaches introduce frequency-domain cues, the weak coupling between spatial and frequency branches limits the overall performance. To overcome these limitations, we propose the Dark Channel Guided Frequency-aware Dehazing Network (DGFDNet), a novel dual-domain framework that performs physically guided degradation alignment across spatial and frequency domains. At its core, the DGFDBlock comprises two key modules: 1) the Haze-Aware Frequency Modulator (HAFM), which generates a pixel-level haze confidence map from dark channel priors to adaptively enhance haze-relevant frequency components, thereby achieving global degradation-aware spectral modulation; 2) the Multi-level Gating Aggregation Module (MGAM), which fuses multi-scale features through diverse convolutional kernels and hybrid gating mechanisms to recover fine structural details. Additionally, a Prior Correction Guidance Branch (PCGB) incorporates a closed-loop feedback mechanism, enabling iterative refinement of the prior by intermediate dehazed features and significantly improving haze localization accuracy, especially in challenging outdoor scenes. Extensive experiments on four benchmark haze datasets demonstrate that DGFDNet achieves state-of-the-art performance with superior robustness and real-time efficiency. Code is available at: https://github.com/Dilizlr/DGFDNet.
- Abstract(参考訳): トランスフォーマーベースのモデルは、シングルイメージのデハージングにおいて強力なグローバルモデリング能力を示すが、その高い計算コストはリアルタイム適用性を制限する。
既存の手法は主に、複雑なヘイズ条件下では計算コストが高く、しばしば不十分である長距離依存を捉えるために空間領域の特徴に依存している。
周波数領域のキューを導入するアプローチもあるが、空間と周波数分岐の間の弱い結合は全体的な性能を制限している。
このような制約を克服するために,空間領域と周波数領域にまたがる物理誘導分解アライメントを行う新しいデュアルドメインフレームワークであるDGFDNetを提案する。
コアとなるDGFDBlockには2つの重要なモジュールがある。
1)暗チャネル先行から画素レベルのヘイズ信頼マップを生成して、ハズ関連周波数成分を適応的に増強し、グローバルな劣化認識スペクトル変調を実現するハズ対応周波数変調器(HAFM)。
2) マルチレベルゲーティング・アグリゲーション・モジュール (MGAM) は, 多様な畳み込みカーネルとハイブリッドゲーティング機構により, 微細構造を復元する。
さらに、PCGB(Presideor Correction Guidance Branch)には、クローズドループフィードバック機構が組み込まれており、特に挑戦的な屋外シーンにおいて、中間デハズド特徴によって事前の反復的な改善を可能にし、ヘイズローカライゼーションの精度を大幅に向上させる。
4つのベンチマークハウズデータセットの大規模な実験により、DGFDNetは、より優れた堅牢性とリアルタイム効率で最先端のパフォーマンスを達成することを示した。
コードはhttps://github.com/Dilizlr/DGFDNet.comで入手できる。
関連論文リスト
- Wavelet-Guided Dual-Frequency Encoding for Remote Sensing Change Detection [67.84730634802204]
リモートセンシング画像の変化検出は,自然災害監視,都市拡張追跡,インフラ管理など,さまざまな工学的応用において重要な役割を担っている。
既存のほとんどの手法は空間領域モデリングに依存しており、特徴表現の限られた多様性は微妙な変化領域の検出を妨げる。
本研究では、特にウェーブレット領域における周波数領域の特徴モデリングが周波数成分の微細な違いを増幅し、空間領域において捉えにくいエッジ変化の知覚を高めることを観察する。
論文 参考訳(メタデータ) (2025-08-07T11:14:16Z) - Uncertainty-Aware Spatial Color Correlation for Low-Light Image Enhancement [5.6629926700493325]
U2CLLIEは不確実性認識と空間カラー因果相関モデルを統合する新しいフレームワークである。
複数のベンチマークデータセットで最先端のパフォーマンスを実現し、さまざまな場面で堅牢なパフォーマンスと強力な一般化を実現している。
論文 参考訳(メタデータ) (2025-08-06T08:02:21Z) - SPJFNet: Self-Mining Prior-Guided Joint Frequency Enhancement for Ultra-Efficient Dark Image Restoration [3.2735437407166414]
現在の暗黒画像復元法は、深刻な効率のボトルネックに悩まされている。
本稿では,SPJFNetを用いた自己マイニング事前誘導型結合周波数拡張ネットワークを提案する。
論文 参考訳(メタデータ) (2025-08-06T03:06:29Z) - FADPNet: Frequency-Aware Dual-Path Network for Face Super-Resolution [70.61549422952193]
計算コストの制限による顔超解像(FSR)は未解決の問題である。
既存のアプローチでは、全ての顔のピクセルを等しく扱い、計算資源を最適以下に割り当てる。
本稿では、低周波成分と高周波成分に顔の特徴を分解する周波数対応デュアルパスネットワークであるFADPNetを提案する。
論文 参考訳(メタデータ) (2025-06-17T02:33:42Z) - F2Net: A Frequency-Fused Network for Ultra-High Resolution Remote Sensing Segmentation [10.67983913373955]
F2Netは、UHR画像を特殊な処理のために高周波数成分と低周波数成分に分解する周波数認識フレームワークである。
ハイブリッド周波数融合モジュールは、2つの新しい目的によって導かれるこれらの観測を統合する。
F2Netは、それぞれ80.22のmIoUと83.39の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-06-09T15:09:49Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - FUSION: Frequency-guided Underwater Spatial Image recOnstructioN [0.0]
水中画像は、色歪み、可視性低下、波長依存性の減衰と散乱による構造的詳細の喪失など、深刻な劣化に悩まされている。
既存の拡張手法は主に空間領域処理に重点を置いており、グローバルな色分布と長距離依存を捉える周波数領域の可能性を無視している。
本稿では,空間領域情報と周波数領域情報を併用した2領域深層学習フレームワーク「フュージョン」を提案する。
論文 参考訳(メタデータ) (2025-04-01T23:16:19Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Let Synthetic Data Shine: Domain Reassembly and Soft-Fusion for Single Domain Generalization [68.41367635546183]
単一ドメインの一般化は、単一のソースからのデータを使用して、さまざまなシナリオで一貫したパフォーマンスでモデルをトレーニングすることを目的としている。
モデル一般化を改善するために合成データを活用した学習フレームワークDRSFを提案する。
論文 参考訳(メタデータ) (2025-03-17T18:08:03Z) - A Hybrid Transformer-Mamba Network for Single Image Deraining [70.64069487982916]
既存のデラリング変換器では、固定レンジウィンドウやチャネル次元に沿って自己アテンション機構を採用している。
本稿では,多分岐型トランスフォーマー・マンバネットワーク(Transformer-Mamba Network,TransMamba Network,Transformer-Mamba Network)を提案する。
論文 参考訳(メタデータ) (2024-08-31T10:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。