論文の概要: Learning Unpaired Image Dehazing with Physics-based Rehazy Generation
- arxiv url: http://arxiv.org/abs/2506.12824v1
- Date: Sun, 15 Jun 2025 12:12:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.983218
- Title: Learning Unpaired Image Dehazing with Physics-based Rehazy Generation
- Title(参考訳): 物理に基づくリハビリジェネレーションによる未経験画像のデハジング学習
- Authors: Haoyou Deng, Zhiqiang Li, Feng Zhang, Qingbo Lu, Zisheng Cao, Yuanjie Shao, Shuhang Gu, Changxin Gao, Nong Sang,
- Abstract要約: 合成トレーニングペアへの過度な適合は、イメージデハジングにおいて重要な課題である。
本研究では,非対位画像脱ハージング(Rehazy)の新たなトレーニング戦略を提案し,脱ハージング性能とトレーニング安定性を両立させる。
- 参考スコア(独自算出の注目度): 50.37414006427923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overfitting to synthetic training pairs remains a critical challenge in image dehazing, leading to poor generalization capability to real-world scenarios. To address this issue, existing approaches utilize unpaired realistic data for training, employing CycleGAN or contrastive learning frameworks. Despite their progress, these methods often suffer from training instability, resulting in limited dehazing performance. In this paper, we propose a novel training strategy for unpaired image dehazing, termed Rehazy, to improve both dehazing performance and training stability. This strategy explores the consistency of the underlying clean images across hazy images and utilizes hazy-rehazy pairs for effective learning of real haze characteristics. To favorably construct hazy-rehazy pairs, we develop a physics-based rehazy generation pipeline, which is theoretically validated to reliably produce high-quality rehazy images. Additionally, leveraging the rehazy strategy, we introduce a dual-branch framework for dehazing network training, where a clean branch provides a basic dehazing capability in a synthetic manner, and a hazy branch enhances the generalization ability with hazy-rehazy pairs. Moreover, we design a new dehazing network within these branches to improve the efficiency, which progressively restores clean scenes from coarse to fine. Extensive experiments on four benchmarks demonstrate the superior performance of our approach, exceeding the previous state-of-the-art methods by 3.58 dB on the SOTS-Indoor dataset and by 1.85 dB on the SOTS-Outdoor dataset in PSNR. Our code will be publicly available.
- Abstract(参考訳): 合成トレーニングペアへの過度な適合は、イメージデハジングにおいて重要な課題であり、現実のシナリオへの一般化能力の低下につながっている。
この問題に対処するため、既存のアプローチでは、CycleGANや対照的な学習フレームワークを使用して、未経験の現実的なデータをトレーニングに利用しています。
それらの進歩にもかかわらず、これらの手法は訓練の不安定さに悩まされ、結果として排熱性能が制限される。
本稿では,非対位画像脱ハージング(Rehazy)の新たなトレーニング戦略を提案し,脱ハージング性能とトレーニング安定性を両立させる。
この戦略は、基礎となる清潔な画像の整合性を探究し、ヘイズ特性の効果的な学習にヘイズ・リハジーのペアを利用する。
そこで我々は, 理論的に検証し, 高品質な再生画像を確実に生成する物理ベースのリハビリ生成パイプラインを, 好意的に構築する。
さらに, クリーンブランチが基本的脱ハージング能力を合成的に提供し, ヘイジーブランチがヘイジー・リハジーペアによる一般化能力を向上する, ネットワークトレーニングのための二重ブランチフレームワークを導入する。
さらに,これらのブランチ内に新しいデハージングネットワークを設計して効率を向上し,クリーンなシーンを粗さから細さに段階的に復元する。
また,SOTS-Indoorデータセットでは3.58dB,PSNRでは1.85dB,SOTS-Outdoorデータセットでは1.85dBであった。
私たちのコードは公開されます。
関連論文リスト
- Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing [59.43187521828543]
本稿では,現実的なヘイズ画像生成フレームワーク(HazeGen)と拡散に基づくデハズ・フレームワーク(DiffDehaze)からなる,新しいヘイズ・デハズ・パイプラインを紹介する。
HazeGenは、事前訓練されたテキスト-画像拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
論文 参考訳(メタデータ) (2025-03-25T01:55:39Z) - DRACO-DehazeNet: An Efficient Image Dehazing Network Combining Detail Recovery and a Novel Contrastive Learning Paradigm [3.649619954898362]
我々は,Detail Recovery and Contrastive DehazeNetを開発した。
濃密な拡張反転残差ブロックと、注意に基づく詳細回復ネットワークを介して、効率的で効果的な脱ハジングを提供する。
大きな革新は、新しい四重項損失に基づくコントラストデハージングパラダイムによって達成された、限られたデータで効果的にトレーニングできることである。
論文 参考訳(メタデータ) (2024-10-18T16:48:31Z) - HazeCLIP: Towards Language Guided Real-World Image Dehazing [62.4454483961341]
既存の手法は、特に合成データセットにおいて、画像のデハージングにおいて顕著な性能を達成した。
本稿では,事前学習型デハジングネットワークの性能向上を目的とした言語誘導適応フレームワークHazeCLIPを紹介する。
論文 参考訳(メタデータ) (2024-07-18T17:18:25Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Mutual Learning for Domain Adaptation: Self-distillation Image Dehazing
Network with Sample-cycle [7.452382358080454]
ドメイン適応のための相互学習脱ハージングフレームワークを提案する。
具体的には、まず、合成ドメインの教師ネットワークと、実ドメインの学生ネットワークの2つのシアムネットワークを考案する。
この枠組みは, 主観的, 客観的評価の観点から, 最先端の脱ハージング技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T16:32:14Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。