論文の概要: ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow
Removal
- arxiv url: http://arxiv.org/abs/2212.04711v2
- Date: Tue, 13 Dec 2022 08:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:39:57.715436
- Title: ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow
Removal
- Title(参考訳): シャドウ拡散: シャドウ除去のための拡散モデルに先立つ劣化
- Authors: Lanqing Guo, Chong Wang, Wenhan Yang, Siyu Huang, Yufei Wang,
Hanspeter Pfister, Bihan Wen
- Abstract要約: 画像と劣化先行情報を統合した統合拡散フレームワークを提案する。
SRDデータセット上でのPSNRは31.69dBから34.73dBへと大幅に向上した。
- 参考スコア(独自算出の注目度): 74.86415440438051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent deep learning methods have achieved promising results in image shadow
removal. However, their restored images still suffer from unsatisfactory
boundary artifacts, due to the lack of degradation prior embedding and the
deficiency in modeling capacity. Our work addresses these issues by proposing a
unified diffusion framework that integrates both the image and degradation
priors for highly effective shadow removal. In detail, we first propose a
shadow degradation model, which inspires us to build a novel unrolling
diffusion model, dubbed ShandowDiffusion. It remarkably improves the model's
capacity in shadow removal via progressively refining the desired output with
both degradation prior and diffusive generative prior, which by nature can
serve as a new strong baseline for image restoration. Furthermore,
ShadowDiffusion progressively refines the estimated shadow mask as an auxiliary
task of the diffusion generator, which leads to more accurate and robust
shadow-free image generation. We conduct extensive experiments on three popular
public datasets, including ISTD, ISTD+, and SRD, to validate our method's
effectiveness. Compared to the state-of-the-art methods, our model achieves a
significant improvement in terms of PSNR, increasing from 31.69dB to 34.73dB
over SRD dataset.
- Abstract(参考訳): 近年の深層学習法は画像の影除去において有望な成果を上げている。
しかし, 画像の復元は, 埋没前の劣化の欠如, モデリング能力の欠如など, 不満足な境界アーチファクトに悩まされている。
本研究は,画像と劣化前処理の両方を統合し,シャドウ除去を効果的に行う統一拡散フレームワークを提案することで,これらの課題に対処した。
そこで我々はまず,ShandowDiffusionと呼ばれる新しい非回転拡散モデルを構築するための影分解モデルを提案する。
画像復元のための新たな強固なベースラインとして機能する、劣化前と拡散前の両方で所望の出力を段階的に精錬することで、シャドー除去におけるモデルの能力を大幅に向上させる。
さらに、シャドウ拡散は拡散生成装置の補助タスクとして推定シャドウマスクを段階的に洗練し、より正確でロバストなシャドウフリー画像を生成する。
本手法の有効性を検証するために, ISTD, ISTD+, SRDの3つの一般的な公開データセットについて広範な実験を行った。
現状の手法と比較して,SRDデータセット上でのPSNRは31.69dBから34.73dBへと大幅に向上した。
関連論文リスト
- Frequency-Aware Guidance for Blind Image Restoration via Diffusion Models [20.898262207229873]
ブラインド画像復元は、低レベルの視覚タスクにおいて重要な課題である。
誘導拡散モデルは、視覚的画像復元において有望な結果を得た。
本稿では,様々な拡散モデルにプラグイン・アンド・プレイ方式で組み込むことができる新しい周波数対応誘導損失を提案する。
論文 参考訳(メタデータ) (2024-11-19T12:18:16Z) - Generative Portrait Shadow Removal [27.98144439007323]
我々は,肖像画のイメージを効果的に向上できる高忠実な肖像画影除去モデルを提案する。
また,本手法は,実環境で捕獲した多様な被験者に対して堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-07T22:09:22Z) - Drantal-NeRF: Diffusion-Based Restoration for Anti-aliasing Neural Radiance Field [10.225323718645022]
Neural Radiance Field (NeRF) が生成したレンダリングにおけるアーティファクトのエイリアス化は、長く続くが複雑な問題である。
拡散を利用した抗エイリアス性神経放射場(Drantal-NeRF)の復元法を提案する。
論文 参考訳(メタデータ) (2024-07-10T08:32:13Z) - Latent Feature-Guided Diffusion Models for Shadow Removal [50.02857194218859]
本稿では,拡散過程における影領域の詳細を段階的に洗練する,有望なアプローチとして拡散モデルの利用を提案する。
シャドウフリー画像の特徴を継承する学習された潜在特徴空間を条件付けすることで,この処理を改善する。
AISTDデータセット上でRMSEを13%向上させる手法の有効性を示す。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。