論文の概要: ProDehaze: Prompting Diffusion Models Toward Faithful Image Dehazing
- arxiv url: http://arxiv.org/abs/2503.17488v1
- Date: Fri, 21 Mar 2025 18:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:37:03.922276
- Title: ProDehaze: Prompting Diffusion Models Toward Faithful Image Dehazing
- Title(参考訳): ProDehaze: 忠実なイメージデハジングに向けて拡散モデルを実証
- Authors: Tianwen Zhou, Jing Wang, Songtao Wu, Kuanhong Xu,
- Abstract要約: ProDehazeは、事前トレーニングされたモデルでエンコードされた直接の外部プリエントに対して、内部イメージを前もって使用するフレームワークである。
実世界のデータセットの実験では、ProDehazeは画像のデハージングで高忠実性を実現している。
- 参考スコア(独自算出の注目度): 4.609440114258181
- License:
- Abstract: Recent approaches using large-scale pretrained diffusion models for image dehazing improve perceptual quality but often suffer from hallucination issues, producing unfaithful dehazed image to the original one. To mitigate this, we propose ProDehaze, a framework that employs internal image priors to direct external priors encoded in pretrained models. We introduce two types of \textit{selective} internal priors that prompt the model to concentrate on critical image areas: a Structure-Prompted Restorer in the latent space that emphasizes structure-rich regions, and a Haze-Aware Self-Correcting Refiner in the decoding process to align distributions between clearer input regions and the output. Extensive experiments on real-world datasets demonstrate that ProDehaze achieves high-fidelity results in image dehazing, particularly in reducing color shifts. Our code is at https://github.com/TianwenZhou/ProDehaze.
- Abstract(参考訳): 画像復調のための大規模事前学習拡散モデルを用いた最近のアプローチは、知覚的品質を向上させるが、幻覚に悩まされることが多く、元のものには不信な復調像が生じる。
これを軽減するために、事前訓練されたモデルにエンコードされた直接の外部プリエントに対して、内部イメージを優先的に利用するフレームワークであるProDehazeを提案する。
本稿では、構造豊かな領域を強調する潜在空間における構造促進型レゾルバと、より明確な入力領域と出力の間の分布を整合させるデコードプロセスにおけるヘイズ認識型自己補正リファイラーの2つのタイプについて、モデルに重要な画像領域に集中するよう促す。
実世界のデータセットに関する大規模な実験は、ProDehazeが高忠実な結果、特に色の変化を減らすために、画像のデハージングを実現することを示した。
私たちのコードはhttps://github.com/TianwenZhou/ProDehaze.comにある。
関連論文リスト
- UR2P-Dehaze: Learning a Simple Image Dehaze Enhancer via Unpaired Rich Physical Prior [8.713784455593778]
我々は、Unpaired Rich Physical Prior (UR2P-Dehaze)を介してSimple Image Dehaze Enhancerと呼ばれる未ペア画像デハズネットワークを提案する。
まず, 画像の照度, 反射率, 色情報を正確に推定するために, 照度と反射率の整合性を確保するために, 反復的に訓練された事前推定器(SPE)を設計する。
次に、低周波と高周波の両方で重要な特徴を効果的に統合する動的ウェーブレット分離畳み込み(DWSC)を提案する。
論文 参考訳(メタデータ) (2025-01-12T14:21:05Z) - Hollowed Net for On-Device Personalization of Text-to-Image Diffusion Models [51.3915762595891]
本稿では、デバイス上での主観的生成のための効率的なLoRAに基づくパーソナライズ手法を提案する。
提案手法はHollowed Netと呼ばれ,拡散U-Netのアーキテクチャを変更することにより,微調整時のメモリ効率を向上させる。
論文 参考訳(メタデータ) (2024-11-02T08:42:48Z) - Scaling Up Single Image Dehazing Algorithm by Cross-Data Vision Alignment for Richer Representation Learning and Beyond [47.425906124301775]
本稿では,よりリッチな表現学習のためのクロスデータビジョンアライメント手法を提案する。
データの外部アライメントを使用することで、データセットは、しっかりと整列された異なるドメインからのサンプルを継承する。
提案手法は, 実際のヘイズフリー画像に最も近いデハズド画像のデハズ化やデハズド画像の生成において, 他の先進的手法よりも著しく優れている。
論文 参考訳(メタデータ) (2024-07-20T10:00:20Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Frequency Compensated Diffusion Model for Real-scene Dehazing [6.105813272271171]
本研究では,実ヘイズへの一般化を改善する条件付き拡散モデルに基づく脱ヘイズフレームワークについて考察する。
提案手法は, 実世界の画像において, 最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-08-21T06:50:44Z) - Deceptive-NeRF/3DGS: Diffusion-Generated Pseudo-Observations for High-Quality Sparse-View Reconstruction [60.52716381465063]
我々は,限られた入力画像のみを用いて,スパースビュー再構成を改善するために,Deceptive-NeRF/3DGSを導入した。
具体的には,少数視点再構成によるノイズ画像から高品質な擬似観測へ変換する,偽拡散モデルを提案する。
本システムでは,拡散生成擬似観測をトレーニング画像集合に徐々に組み込んで,スパース入力観測を5倍から10倍に高めている。
論文 参考訳(メタデータ) (2023-05-24T14:00:32Z) - SelfPromer: Self-Prompt Dehazing Transformers with Depth-Consistency [51.92434113232977]
本研究は,画像デハージングに有効な深度整合型セルフプロンプトトランスを提案する。
ヘイズ残像とその明確な像の深さが異なるという観測によって動機づけられた。
VQGANに基づくエンコーダ・デコーダネットワークにプロンプト、プロンプト埋め込み、そしてインタプリタを組み込むことにより、より優れた知覚品質を実現することができる。
論文 参考訳(メタデータ) (2023-03-13T11:47:24Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。