論文の概要: Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing
- arxiv url: http://arxiv.org/abs/2503.19262v1
- Date: Tue, 25 Mar 2025 01:55:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:40.525064
- Title: Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing
- Title(参考訳): デハジングへの学習: 現実のイメージデハジングのためのリアルなヘイズ生成を目指して
- Authors: Ruiyi Wang, Yushuo Zheng, Zicheng Zhang, Chunyi Li, Shuaicheng Liu, Guangtao Zhai, Xiaohong Liu,
- Abstract要約: 本稿では,現実的なヘイズ画像生成フレームワーク(HazeGen)と拡散に基づくデハズ・フレームワーク(DiffDehaze)からなる,新しいヘイズ・デハズ・パイプラインを紹介する。
HazeGenは、事前訓練されたテキスト-画像拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
- 参考スコア(独自算出の注目度): 59.43187521828543
- License:
- Abstract: Existing real-world image dehazing methods primarily attempt to fine-tune pre-trained models or adapt their inference procedures, thus heavily relying on the pre-trained models and associated training data. Moreover, restoring heavily distorted information under dense haze requires generative diffusion models, whose potential in dehazing remains underutilized partly due to their lengthy sampling processes. To address these limitations, we introduce a novel hazing-dehazing pipeline consisting of a Realistic Hazy Image Generation framework (HazeGen) and a Diffusion-based Dehazing framework (DiffDehaze). Specifically, HazeGen harnesses robust generative diffusion priors of real-world hazy images embedded in a pre-trained text-to-image diffusion model. By employing specialized hybrid training and blended sampling strategies, HazeGen produces realistic and diverse hazy images as high-quality training data for DiffDehaze. To alleviate the inefficiency and fidelity concerns associated with diffusion-based methods, DiffDehaze adopts an Accelerated Fidelity-Preserving Sampling process (AccSamp). The core of AccSamp is the Tiled Statistical Alignment Operation (AlignOp), which can provide a clean and faithful dehazing estimate within a small fraction of sampling steps to reduce complexity and enable effective fidelity guidance. Extensive experiments demonstrate the superior dehazing performance and visual quality of our approach over existing methods. The code is available at https://github.com/ruiyi-w/Learning-Hazing-to-Dehazing.
- Abstract(参考訳): 既存の実世界のイメージデハージング手法は、主に事前訓練されたモデルを微調整したり、推論手順を適用しようとするため、事前訓練されたモデルと関連するトレーニングデータに大きく依存する。
さらに、高密度のヘイズの下で重く歪んだ情報を復元するには、生成拡散モデルが必要であり、そのデハージングのポテンシャルは、その長いサンプリングプロセスのために、部分的には未利用のままである。
これらの制約に対処するため、我々はRealistic Hazy Image Generation framework (HazeGen) と Diffusion-based Dehazing framework (DiffDehaze) からなる新しいヘイズ・デハージング・パイプラインを導入する。
具体的には、HazeGenは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
DiffDehazeは拡散ベースの手法に関連する非効率性と忠実さの懸念を軽減するために、Accelerated Fidelity-Preserving Smpling(AccSamp)プロセスを採用する。
AccSamp のコアとなるのは Tiled Statistical Alignment Operation (AlignOp) であり、これは単純で忠実なデハージング推定を少数のサンプリングステップで提供し、複雑さを減らし、効果的なフィデリティガイダンスを可能にする。
大規模な実験は、既存の方法よりも優れたデハージング性能と視覚的品質を示す。
コードはhttps://github.com/ruiyi-w/Learning-Hazing-to-Dehazing.comで公開されている。
関連論文リスト
- One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - HazeCLIP: Towards Language Guided Real-World Image Dehazing [62.4454483961341]
既存の手法は、特に合成データセットにおいて、画像のデハージングにおいて顕著な性能を達成した。
本稿では,事前学習型デハジングネットワークの性能向上を目的とした言語誘導適応フレームワークHazeCLIPを紹介する。
論文 参考訳(メタデータ) (2024-07-18T17:18:25Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Frequency Compensated Diffusion Model for Real-scene Dehazing [6.105813272271171]
本研究では,実ヘイズへの一般化を改善する条件付き拡散モデルに基づく脱ヘイズフレームワークについて考察する。
提案手法は, 実世界の画像において, 最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-08-21T06:50:44Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - GSURE-Based Diffusion Model Training with Corrupted Data [35.56267114494076]
本稿では, 劣化データのみに基づく生成拡散モデルのための新しいトレーニング手法を提案する。
顔画像と磁気共鳴画像(MRI)の撮影技術について紹介する。
論文 参考訳(メタデータ) (2023-05-22T15:27:20Z) - Unsupervised Neural Rendering for Image Hazing [31.108654945661705]
Image hazingは、ゲーム、撮影、写真のフィルタリング、画像のデハージングなど、さまざまな実用用途に適用可能な、クリーンな画像からヘイズな画像をレンダリングすることを目的としている。
本稿では,ハゼゲンと呼ばれる画像のレンダリング手法を提案する。具体的には,ハゼゲンは知識駆動型ニューラルネットワークであり,新しい先行情報を利用して送信マップを推定する。
エアライトを適応的に学習するために、別の新しい先行技術に基づいてニューラルモジュールを構築する。
論文 参考訳(メタデータ) (2021-07-14T13:15:14Z) - Advanced Multiple Linear Regression Based Dark Channel Prior Applied on
Dehazing Image and Generating Synthetic Haze [0.6875312133832078]
筆者らは,ダークチャネル・プリアー(dark channel prior)というデヘイジングアルゴリズムに基づく多重線形回帰ヘイズ除去モデルを提案する。
湿潤環境における物体検出精度を高めるため, 著者らは, 合成湿潤COCOトレーニングデータセットを構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-12T03:32:08Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。