論文の概要: Reference-Guided Identity Preserving Face Restoration
- arxiv url: http://arxiv.org/abs/2505.21905v1
- Date: Wed, 28 May 2025 02:46:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.376613
- Title: Reference-Guided Identity Preserving Face Restoration
- Title(参考訳): 顔復元のための基準誘導ID
- Authors: Mo Zhou, Keren Ye, Viraj Shah, Kangfu Mei, Mauricio Delbracio, Peyman Milanfar, Vishal M. Patel, Hossein Talebi,
- Abstract要約: 顔のアイデンティティを保存することは、拡散に基づく画像復元において重要な課題である。
本稿では,顔の復元とアイデンティティの保存を改善するために,参照顔の有用性を最大化するための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 54.10295747851343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Preserving face identity is a critical yet persistent challenge in diffusion-based image restoration. While reference faces offer a path forward, existing reference-based methods often fail to fully exploit their potential. This paper introduces a novel approach that maximizes reference face utility for improved face restoration and identity preservation. Our method makes three key contributions: 1) Composite Context, a comprehensive representation that fuses multi-level (high- and low-level) information from the reference face, offering richer guidance than prior singular representations. 2) Hard Example Identity Loss, a novel loss function that leverages the reference face to address the identity learning inefficiencies found in the existing identity loss. 3) A training-free method to adapt the model to multi-reference inputs during inference. The proposed method demonstrably restores high-quality faces and achieves state-of-the-art identity preserving restoration on benchmarks such as FFHQ-Ref and CelebA-Ref-Test, consistently outperforming previous work.
- Abstract(参考訳): 顔のアイデンティティを保存することは、拡散に基づく画像復元において重要な課題である。
参照フェイスは前方へのパスを提供するが、既存の参照ベースのメソッドは、そのポテンシャルを完全に活用できないことが多い。
本稿では,顔の復元とアイデンティティの保存を改善するために,参照顔の有用性を最大化するための新しいアプローチを提案する。
私たちの方法には3つの重要な貢献があります。
1)複合コンテキストは,参照面から多レベル(高レベル,低レベル)情報を融合する包括的表現であり,先行する特異表現よりもリッチなガイダンスを提供する。
2)Hard Example Identity Lossは,既存のアイデンティティ損失に見られるアイデンティティ学習の非効率性に対処するために,参照顔を利用する新しいロス関数である。
3)推論中のマルチ参照入力にモデルを適応させる学習自由な手法。
FFHQ-Ref や CelebA-Ref-Test などのベンチマークにおいて,高品質な顔の復元を実証的に達成し,従来よりも一貫して向上する。
関連論文リスト
- DiffusionReward: Enhancing Blind Face Restoration through Reward Feedback Learning [40.641049729447175]
DiffusionRewardという名前のReFLフレームワークをBlind Face Restorationタスクに初めて導入する。
私たちのフレームワークの中核はFace Reward Model(FRM)です。
合成およびワイルドデータセットの実験により,本手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-23T13:53:23Z) - FaceMe: Robust Blind Face Restoration with Personal Identification [27.295878867436688]
拡散モデルに基づく顔復元手法FaceMeを提案する。
1枚または数枚の参照画像が与えられた場合、アイデンティティ関連の特徴を抽出するためにアイデンティティエンコーダを使用し、高品質な顔画像の復元において拡散モデルを導出するためのプロンプトとして機能する。
実験結果から,FaceMeは顔の良質な画像の復元が可能であり,顔認証の整合性を保ち,優れた性能とロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2025-01-09T11:52:54Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Overcoming False Illusions in Real-World Face Restoration with Multi-Modal Guided Diffusion Model [55.46927355649013]
本稿では,新しいマルチモーダル・リアル・ワールド・フェイス・リカバリ技術を紹介する。
MGFRは偽の顔の特徴とアイデンティティの生成を緩和することができる。
4800のアイデンティティにまたがる21,000以上の高解像度顔画像からなるReface-HQデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-05T13:46:56Z) - Learning Dual Memory Dictionaries for Blind Face Restoration [75.66195723349512]
最近の研究は、主に2つの側面、すなわち、ジェネリックと特定の修復を別々に扱う。
本稿では,2つの辞書を通したジェネリックおよび特定の特徴を明示的に記憶することでDMDNetを提案する。
CelebRef-HQと呼ばれる新しい高品質なデータセットは、高解像度空間における特定の顔復元の探索を促進するために構築されている。
論文 参考訳(メタデータ) (2022-10-15T01:55:41Z) - RestoreFormer: High-Quality Blind Face Restoration From Undegraded
Key-Value Pairs [48.33214614798882]
RestoreFormerを提案する。これはコンテキスト情報をモデル化するための完全な空間的注意を探索する。
破損したクエリと高品質なキー-バリューペア間の完全な空間的相互作用を学習する。
1つの合成データセットと3つの実世界のデータセットにおいて、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-01-17T12:21:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。