論文の概要: IDDM: Bridging Synthetic-to-Real Domain Gap from Physics-Guided Diffusion for Real-world Image Dehazing
- arxiv url: http://arxiv.org/abs/2504.21385v1
- Date: Wed, 30 Apr 2025 07:36:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:57:39.478024
- Title: IDDM: Bridging Synthetic-to-Real Domain Gap from Physics-Guided Diffusion for Real-world Image Dehazing
- Title(参考訳): IDDM:物理誘導拡散を利用した実世界の画像デハージング
- Authors: Shijun Zhou, Yajing Liu, Chunhui Hao, Zhiyuan Liu, Jiandong Tian,
- Abstract要約: 合成データセットでトレーニングされた現在のデータ駆動型デハージングアルゴリズムは、合成データでうまく機能するが、現実のシナリオに一般化するのに苦労する。
textbfImage textbfDehazing textbfDiffusion textbfModels (IDDM) を提案する。
- 参考スコア(独自算出の注目度): 46.15854122903006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the domain gap between real-world and synthetic hazy images, current data-driven dehazing algorithms trained on synthetic datasets perform well on synthetic data but struggle to generalize to real-world scenarios. To address this challenge, we propose \textbf{I}mage \textbf{D}ehazing \textbf{D}iffusion \textbf{M}odels (IDDM), a novel diffusion process that incorporates the atmospheric scattering model into noise diffusion. IDDM aims to use the gradual haze formation process to help the denoising Unet robustly learn the distribution of clear images from the conditional input hazy images. We design a specialized training strategy centered around IDDM. Diffusion models are leveraged to bridge the domain gap from synthetic to real-world, while the atmospheric scattering model provides physical guidance for haze formation. During the forward process, IDDM simultaneously introduces haze and noise into clear images, and then robustly separates them during the sampling process. By training with physics-guided information, IDDM shows the ability of domain generalization, and effectively restores the real-world hazy images despite being trained on synthetic datasets. Extensive experiments demonstrate the effectiveness of our method through both quantitative and qualitative comparisons with state-of-the-art approaches.
- Abstract(参考訳): 実世界の画像と合成ヘイズ画像のドメインギャップのため、合成データセットで訓練された現在のデータ駆動型デヘイズアルゴリズムは、合成データでうまく機能するが、現実のシナリオに一般化するのに苦労する。
この課題に対処するために,大気散乱モデルをノイズ拡散に組み込んだ新しい拡散過程である<textbf{I}mage \textbf{D}ehazing \textbf{D}iffusion \textbf{M}odels (IDDM)を提案する。
IDDMは、段階的なヘイズ生成プロセスを用いて、条件付き入力ヘイズ画像から鮮明な画像の分布を確実に学習する。
我々はIDDMを中心とした専門的なトレーニング戦略を設計する。
拡散モデルは、合成から実世界への領域ギャップを埋めるために利用され、大気散乱モデルは、ヘイズ形成のための物理的ガイダンスを提供する。
フォワードプロセスの間、IDDMはヘイズとノイズを同時に鮮明な画像に導入し、サンプリングプロセス中にしっかりと分離する。
物理誘導情報を用いてトレーニングすることにより、IDDMはドメインの一般化の能力を示し、合成データセットでトレーニングされているにもかかわらず、現実のハジーイメージを効果的に復元する。
大規模実験では, 定量的および定性的な比較と最新技術との比較により, 提案手法の有効性を実証した。
関連論文リスト
- Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing [59.43187521828543]
本稿では,現実的なヘイズ画像生成フレームワーク(HazeGen)と拡散に基づくデハズ・フレームワーク(DiffDehaze)からなる,新しいヘイズ・デハズ・パイプラインを紹介する。
HazeGenは、事前訓練されたテキスト-画像拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
論文 参考訳(メタデータ) (2025-03-25T01:55:39Z) - SOWing Information: Cultivating Contextual Coherence with MLLMs in Image Generation [29.49217721233131]
拡散生成モデルは、デノイング軌道に沿ったデータ空間におけるランダムウォークをシミュレートする。
これにより、情報は地域間で拡散し、結果をもたらす。
しかし、拡散モデルにおける情報拡散のカオス的・乱れた性質は、しばしば画像領域間の望ましくない干渉を引き起こし、劣化した詳細保存と文脈的矛盾を引き起こす。
画像全体を通して視覚的・意味的コヒーレンスを維持しつつ、画素レベルの条件忠実性を達成するために、乱れた拡散をテキストビジョン・画像生成(TV2I)タスクの強力なツールとして再定義する。
論文 参考訳(メタデータ) (2024-11-28T14:35:25Z) - Diff-Mosaic: Augmenting Realistic Representations in Infrared Small Target Detection via Diffusion Prior [63.64088590653005]
本稿では拡散モデルに基づくデータ拡張手法であるDiff-Mosaicを提案する。
我々は,モザイク画像を高度に調整し,リアルな画像を生成するPixel-Priorという拡張ネットワークを導入する。
第2段階では,Diff-Prior という画像強調戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:23:05Z) - Teacher-Student Network for Real-World Face Super-Resolution with Progressive Embedding of Edge Information [2.280954956645056]
実データと合成データの領域ギャップを考慮した,実世界の顔超解像教師学生モデルを提案する。
提案手法は,実世界のFSRにおいて,高品質な顔画像を得るための最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-05-08T02:48:52Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Dual-Scale Single Image Dehazing Via Neural Augmentation [29.019279446792623]
モデルベースとデータ駆動のアプローチを組み合わせることで,新しい単一画像デハージングアルゴリズムを導入する。
その結果,提案アルゴリズムは実世界および合成ヘイズ画像からヘイズをうまく除去できることが示唆された。
論文 参考訳(メタデータ) (2022-09-13T11:56:03Z) - High-Resolution Image Synthesis with Latent Diffusion Models [14.786952412297808]
オートエンコーダ上での拡散モデルの訓練は、複雑性の低減と詳細保存の間のほぼ最適点に初めて到達することができる。
我々の潜伏拡散モデル(LDMs)は,様々なタスクにおける画像インペイントと高い競争性能の新たな技術を実現する。
論文 参考訳(メタデータ) (2021-12-20T18:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。