論文の概要: Structure-Guided Diffusion Models for High-Fidelity Portrait Shadow Removal
- arxiv url: http://arxiv.org/abs/2507.04692v1
- Date: Mon, 07 Jul 2025 06:19:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.294996
- Title: Structure-Guided Diffusion Models for High-Fidelity Portrait Shadow Removal
- Title(参考訳): 高忠実ポートレートシャドウ除去のための構造誘導拡散モデル
- Authors: Wanchang Yu, Qing Zhang, Rongjia Zheng, Wei-Shi Zheng,
- Abstract要約: 拡散型ポートレートシャドウ除去手法を提案する。
まず,種々の合成照明条件を持つ実世界のポートレートデータセット上で,影に依存しない構造抽出ネットワークを訓練する。
その後、構造地図は、影を生成的に除去する構造誘導塗布拡散モデルを訓練するための条件として使用される。
- 参考スコア(独自算出の注目度): 34.35752953614944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a diffusion-based portrait shadow removal approach that can robustly produce high-fidelity results. Unlike previous methods, we cast shadow removal as diffusion-based inpainting. To this end, we first train a shadow-independent structure extraction network on a real-world portrait dataset with various synthetic lighting conditions, which allows to generate a shadow-independent structure map including facial details while excluding the unwanted shadow boundaries. The structure map is then used as condition to train a structure-guided inpainting diffusion model for removing shadows in a generative manner. Finally, to restore the fine-scale details (e.g., eyelashes, moles and spots) that may not be captured by the structure map, we take the gradients inside the shadow regions as guidance and train a detail restoration diffusion model to refine the shadow removal result. Extensive experiments on the benchmark datasets show that our method clearly outperforms existing methods, and is effective to avoid previously common issues such as facial identity tampering, shadow residual, color distortion, structure blurring, and loss of details. Our code is available at https://github.com/wanchang-yu/Structure-Guided-Diffusion-for-Portrait-Shadow-Removal.
- Abstract(参考訳): 拡散型ポートレートシャドウ除去手法を提案する。
従来の方法とは異なり,影の除去を拡散型塗料として用いた。
この目的のために、我々はまず、様々な合成照明条件で現実のポートレートデータセット上の影非依存構造抽出ネットワークを訓練し、不要な影境界を除外しながら、顔の詳細を含む影非依存構造マップを生成する。
その後、構造地図は、影を生成的に除去する構造誘導塗布拡散モデルを訓練するための条件として使用される。
最後に、構造図では捉えられないような微細な細部(例えば、まつげ、ほこり、斑点)を復元するために、影領域内の勾配をガイダンスとして取り、詳細な復元拡散モデルを訓練して、影除去結果を洗練させる。
本手法は, 従来の手法より明らかに優れており, 顔認証の改ざん, 影の残差, 色歪み, 構造ぼけ, 詳細の喪失など, 従来の問題を回避するのに有効である。
私たちのコードはhttps://github.com/wanchang-yu/Structure-Guided-Diffusion-for-Portrait-Shadow-Removalで公開されています。
関連論文リスト
- DocShaDiffusion: Diffusion Model in Latent Space for Document Image Shadow Removal [61.375359734723716]
既存の方法は、一定の色の背景を持つ影を除去し、色影を無視する傾向がある。
本稿では,DocShaDiffusionと呼ばれる文書画像の影除去のための遅延空間での拡散モデルの設計を行う。
カラーシャドウの問題に対処するため、影ソフトマスク生成モジュール(SSGM)を設計する。
影マスク対応拡散モジュール (SMGDM) を提案し, 拡散・復調過程を監督し, 文書画像から影を除去する。
論文 参考訳(メタデータ) (2025-07-02T07:22:09Z) - MetaShadow: Object-Centered Shadow Detection, Removal, and Synthesis [64.00425120075045]
シャドウは画像編集アプリケーションでは過小評価されるか無視されることが多く、編集結果のリアリズムが制限される。
本稿では,自然画像中の影の検出・除去・制御が可能な3-in-one多元性フレームワークであるMetaShadowを紹介する。
論文 参考訳(メタデータ) (2024-12-03T18:04:42Z) - Generative Portrait Shadow Removal [27.98144439007323]
我々は,肖像画のイメージを効果的に向上できる高忠実な肖像画影除去モデルを提案する。
また,本手法は,実環境で捕獲した多様な被験者に対して堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-07T22:09:22Z) - Shadow Removal Refinement via Material-Consistent Shadow Edges [33.8383848078524]
同じ材料で領域を横断する影の縁の両側には、影を適切に取り除けば、原色とテクスチャは同一であるべきである。
画像セグメンテーション基盤モデルであるSAMを微調整し、影不変セグメンテーションを生成し、材料一貫性のあるシャドウエッジを抽出する。
本手法は,より難易度の高い画像に対して,影除去結果の改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-09-10T20:16:28Z) - Single-Image Shadow Removal Using Deep Learning: A Comprehensive Survey [78.84004293081631]
影のパターンは任意で変化しており、しばしば非常に複雑な痕跡構造を持つ。
影による劣化は空間的に不均一であり、照度と影と非陰影領域間の色に矛盾が生じている。
この分野での最近の開発は、主にディープラーニングベースのソリューションによって進められている。
論文 参考訳(メタデータ) (2024-07-11T20:58:38Z) - Cross-Modal Spherical Aggregation for Weakly Supervised Remote Sensing Shadow Removal [22.4845448174729]
本研究では,S2-ShadowNetと呼ばれる球面特徴空間を持つ弱教師付きシャドウ除去ネットワークを提案する。
具体的には、クロスドメインマッピングを学習するために、モーダル変換(可視赤外)モデルを使用し、現実的な赤外線サンプルを生成する。
シャドウマスクを用いた4000個のシャドウ画像を含む,大規模に監督されたシャドウ除去ベンチマークに寄与する。
論文 参考訳(メタデータ) (2024-06-25T11:14:09Z) - Latent Feature-Guided Diffusion Models for Shadow Removal [47.21387783721207]
本稿では,拡散過程における影領域の詳細を段階的に洗練する,有望なアプローチとして拡散モデルの利用を提案する。
シャドウフリー画像の特徴を継承する学習された潜在特徴空間を条件付けすることで,この処理を改善する。
AISTDデータセット上でRMSEを13%向上させる手法の有効性を示す。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - Structure-Informed Shadow Removal Networks [67.57092870994029]
既存のディープラーニングベースのシャドウ除去手法は、依然として影の残像を持つ画像を生成する。
本稿では,影残差問題に対処するために,画像構造情報を活用する構造インフォームド・シャドウ除去ネットワーク(StructNet)を提案する。
我々の手法は既存のシャドウ除去方法よりも優れており、StructNetは既存の手法と統合してさらに改善することができる。
論文 参考訳(メタデータ) (2023-01-09T06:31:52Z) - ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow
Removal [74.86415440438051]
画像と劣化先行情報を統合した統合拡散フレームワークを提案する。
SRDデータセット上でのPSNRは31.69dBから34.73dBへと大幅に向上した。
論文 参考訳(メタデータ) (2022-12-09T07:48:30Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - DeS3: Adaptive Attention-driven Self and Soft Shadow Removal using ViT Similarity [54.831083157152136]
本稿では,適応的注意とViT類似性に基づいて,ハード,ソフト,セルフシャドーを除去する手法を提案する。
提案手法はSRD, AISTD, LRSS, USR, UIUCデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-11-15T12:15:29Z) - Physics-based Shadow Image Decomposition for Shadow Removal [36.41558227710456]
陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルにインスパイアされ、線形照明変換を用いて画像内の影効果をモデル化する。
最も困難なシャドウ除去データセットでフレームワークをトレーニングし、テストします。
論文 参考訳(メタデータ) (2020-12-23T23:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。