論文の概要: Structure-Guided Diffusion Models for High-Fidelity Portrait Shadow Removal
- arxiv url: http://arxiv.org/abs/2507.04692v1
- Date: Mon, 07 Jul 2025 06:19:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.294996
- Title: Structure-Guided Diffusion Models for High-Fidelity Portrait Shadow Removal
- Title(参考訳): 高忠実ポートレートシャドウ除去のための構造誘導拡散モデル
- Authors: Wanchang Yu, Qing Zhang, Rongjia Zheng, Wei-Shi Zheng,
- Abstract要約: 拡散型ポートレートシャドウ除去手法を提案する。
まず,種々の合成照明条件を持つ実世界のポートレートデータセット上で,影に依存しない構造抽出ネットワークを訓練する。
その後、構造地図は、影を生成的に除去する構造誘導塗布拡散モデルを訓練するための条件として使用される。
- 参考スコア(独自算出の注目度): 34.35752953614944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a diffusion-based portrait shadow removal approach that can robustly produce high-fidelity results. Unlike previous methods, we cast shadow removal as diffusion-based inpainting. To this end, we first train a shadow-independent structure extraction network on a real-world portrait dataset with various synthetic lighting conditions, which allows to generate a shadow-independent structure map including facial details while excluding the unwanted shadow boundaries. The structure map is then used as condition to train a structure-guided inpainting diffusion model for removing shadows in a generative manner. Finally, to restore the fine-scale details (e.g., eyelashes, moles and spots) that may not be captured by the structure map, we take the gradients inside the shadow regions as guidance and train a detail restoration diffusion model to refine the shadow removal result. Extensive experiments on the benchmark datasets show that our method clearly outperforms existing methods, and is effective to avoid previously common issues such as facial identity tampering, shadow residual, color distortion, structure blurring, and loss of details. Our code is available at https://github.com/wanchang-yu/Structure-Guided-Diffusion-for-Portrait-Shadow-Removal.
- Abstract(参考訳): 拡散型ポートレートシャドウ除去手法を提案する。
従来の方法とは異なり,影の除去を拡散型塗料として用いた。
この目的のために、我々はまず、様々な合成照明条件で現実のポートレートデータセット上の影非依存構造抽出ネットワークを訓練し、不要な影境界を除外しながら、顔の詳細を含む影非依存構造マップを生成する。
その後、構造地図は、影を生成的に除去する構造誘導塗布拡散モデルを訓練するための条件として使用される。
最後に、構造図では捉えられないような微細な細部(例えば、まつげ、ほこり、斑点)を復元するために、影領域内の勾配をガイダンスとして取り、詳細な復元拡散モデルを訓練して、影除去結果を洗練させる。
本手法は, 従来の手法より明らかに優れており, 顔認証の改ざん, 影の残差, 色歪み, 構造ぼけ, 詳細の喪失など, 従来の問題を回避するのに有効である。
私たちのコードはhttps://github.com/wanchang-yu/Structure-Guided-Diffusion-for-Portrait-Shadow-Removalで公開されています。
関連論文リスト
- DocShaDiffusion: Diffusion Model in Latent Space for Document Image Shadow Removal [61.375359734723716]
既存の方法は、一定の色の背景を持つ影を除去し、色影を無視する傾向がある。
本稿では,DocShaDiffusionと呼ばれる文書画像の影除去のための遅延空間での拡散モデルの設計を行う。
カラーシャドウの問題に対処するため、影ソフトマスク生成モジュール(SSGM)を設計する。
影マスク対応拡散モジュール (SMGDM) を提案し, 拡散・復調過程を監督し, 文書画像から影を除去する。
論文 参考訳(メタデータ) (2025-07-02T07:22:09Z) - Generative Portrait Shadow Removal [27.98144439007323]
我々は,肖像画のイメージを効果的に向上できる高忠実な肖像画影除去モデルを提案する。
また,本手法は,実環境で捕獲した多様な被験者に対して堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-07T22:09:22Z) - Latent Feature-Guided Diffusion Models for Shadow Removal [47.21387783721207]
本稿では,拡散過程における影領域の詳細を段階的に洗練する,有望なアプローチとして拡散モデルの利用を提案する。
シャドウフリー画像の特徴を継承する学習された潜在特徴空間を条件付けすることで,この処理を改善する。
AISTDデータセット上でRMSEを13%向上させる手法の有効性を示す。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - Structure-Informed Shadow Removal Networks [67.57092870994029]
既存のディープラーニングベースのシャドウ除去手法は、依然として影の残像を持つ画像を生成する。
本稿では,影残差問題に対処するために,画像構造情報を活用する構造インフォームド・シャドウ除去ネットワーク(StructNet)を提案する。
我々の手法は既存のシャドウ除去方法よりも優れており、StructNetは既存の手法と統合してさらに改善することができる。
論文 参考訳(メタデータ) (2023-01-09T06:31:52Z) - DeS3: Adaptive Attention-driven Self and Soft Shadow Removal using ViT Similarity [54.831083157152136]
本稿では,適応的注意とViT類似性に基づいて,ハード,ソフト,セルフシャドーを除去する手法を提案する。
提案手法はSRD, AISTD, LRSS, USR, UIUCデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-11-15T12:15:29Z) - Physics-based Shadow Image Decomposition for Shadow Removal [36.41558227710456]
陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルにインスパイアされ、線形照明変換を用いて画像内の影効果をモデル化する。
最も困難なシャドウ除去データセットでフレームワークをトレーニングし、テストします。
論文 参考訳(メタデータ) (2020-12-23T23:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。