論文の概要: Self-Supervised Selective-Guided Diffusion Model for Old-Photo Face Restoration
- arxiv url: http://arxiv.org/abs/2510.12114v1
- Date: Tue, 14 Oct 2025 03:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.173961
- Title: Self-Supervised Selective-Guided Diffusion Model for Old-Photo Face Restoration
- Title(参考訳): 自己監督型選択誘導拡散モデルによる古写真顔復元
- Authors: Wenjie Li, Xiangyi Wang, Heng Guo, Guangwei Gao, Zhanyu Ma,
- Abstract要約: 古い写真による顔の復元は、破壊、失明、激しいぼやけなどの複合的な劣化のために重大な課題となる。
本稿では,事前学習した拡散モデルにより生成された擬似参照面を弱い誘導下で活用する自己監督選択拡散法を提案する。
SSDiffは、知覚品質、忠実度、および地域制御性において、既存のGANベースおよび拡散ベースの手法より優れている。
- 参考スコア(独自算出の注目度): 43.12011252251526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Old-photo face restoration poses significant challenges due to compounded degradations such as breakage, fading, and severe blur. Existing pre-trained diffusion-guided methods either rely on explicit degradation priors or global statistical guidance, which struggle with localized artifacts or face color. We propose Self-Supervised Selective-Guided Diffusion (SSDiff), which leverages pseudo-reference faces generated by a pre-trained diffusion model under weak guidance. These pseudo-labels exhibit structurally aligned contours and natural colors, enabling region-specific restoration via staged supervision: structural guidance applied throughout the denoising process and color refinement in later steps, aligned with the coarse-to-fine nature of diffusion. By incorporating face parsing maps and scratch masks, our method selectively restores breakage regions while avoiding identity mismatch. We further construct VintageFace, a 300-image benchmark of real old face photos with varying degradation levels. SSDiff outperforms existing GAN-based and diffusion-based methods in perceptual quality, fidelity, and regional controllability. Code link: https://github.com/PRIS-CV/SSDiff.
- Abstract(参考訳): 古い写真による顔の復元は、破壊、失明、激しいぼやけなどの複合的な劣化のために重大な課題となる。
既存の訓練済み拡散誘導法は、局所的なアーティファクトや顔の色に苦しむ、明示的な劣化の先行や、グローバルな統計的ガイダンスに依存している。
本稿では,事前学習した拡散モデルにより生成された擬似参照面を弱い誘導下で活用する自己監督選択拡散(SSDiff)を提案する。
これらの擬似ラベルは、構造的に整列した輪郭と自然色を示し、段階的な監督によって地域固有の復元を可能にする。
フェースパーシングマップとスクラッチマスクを組み込むことで、識別ミスマッチを回避しつつ、破損領域を選択的に復元する。
さらに、劣化レベルが異なる実顔写真の300イメージのベンチマークであるVintageFaceを構築します。
SSDiffは、知覚品質、忠実度、および地域制御性において、既存のGANベースおよび拡散ベースの手法より優れている。
コードリンク:https://github.com/PRIS-CV/SSDiff.com
関連論文リスト
- Unlocking the Potential of Diffusion Priors in Blind Face Restoration [63.419272650578165]
本研究では、2つのモードを切り替えて特定のギャップを解消する統合ネットワークFLIPNETを提案する。
復元モードでは、モデルは徐々にBFR指向の特徴とLQ画像からの顔埋め込みを統合し、真正かつ忠実な顔復元を実現する。
劣化モードでは、実際の劣化データセットから学んだ知識に基づいて、劣化した画像のような現実世界を合成する。
論文 参考訳(メタデータ) (2025-08-12T01:50:55Z) - DynFaceRestore: Balancing Fidelity and Quality in Diffusion-Guided Blind Face Restoration with Dynamic Blur-Level Mapping and Guidance [29.961208234237635]
Blind Face Restorationは、未知の劣化した入力から高忠実で詳細な顔画像を取り戻すことを目的としている。
視覚的に劣化した入力をぼやけた画像にマッピングする方法を学習する新しいブラインドフェイス復元手法であるDynFaceRestoreを提案する。
DynFaceRestoreは、定量評価と定性評価の両方において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-07-18T10:16:08Z) - LAFR: Efficient Diffusion-based Blind Face Restoration via Latent Codebook Alignment Adapter [52.93785843453579]
低品質(LQ)画像からのブラインド顔復元は、高忠実度画像再構成と顔認証の保存を必要とする課題である。
LAFRは,LQ画像の潜時分布とHQ画像の潜時分布を一致させる,新しいコードブックベースの潜時空間アダプタである。
FFHQデータセットのわずか0.9%での拡散の軽量な微調整は、最先端の手法に匹敵する結果を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2025-05-29T14:11:16Z) - Restoring Real-World Images with an Internal Detail Enhancement Diffusion Model [9.520471615470267]
古い写真や低解像度画像などの現実世界の劣化画像の復元は、大きな課題となる。
最近のデータ駆動型アプローチは、高忠実度復元と、色付けに対するオブジェクトレベル制御の達成に苦慮している。
実世界の劣化画像の高忠実性復元のための内部詳細保存拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-05-24T12:32:53Z) - DiffMAC: Diffusion Manifold Hallucination Correction for High Generalization Blind Face Restoration [62.44659039265439]
視覚障害者の視力回復を支援するための拡散情報拡散フレームワークを提案する。
DiffMACは、多種多様な劣化シーンと異種ドメインにおいて、高度な顔の復元を実現する。
結果は,最先端手法よりもDiffMACの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T08:44:15Z) - CLR-Face: Conditional Latent Refinement for Blind Face Restoration Using
Score-Based Diffusion Models [57.9771859175664]
最近の生成優先法は、有望なブラインドフェイス修復性能を示している。
入力に忠実なきめ細かい顔の詳細を生成することは、依然として難しい問題である。
本稿では,VQGANアーキテクチャの内部に拡散型プライマーを導入し,非破壊な潜伏埋め込みにおける分布の学習に重点を置いている。
論文 参考訳(メタデータ) (2024-02-08T23:51:49Z) - PGDiff: Guiding Diffusion Models for Versatile Face Restoration via
Partial Guidance [65.5618804029422]
これまでの研究は、明示的な劣化モデルを用いて解空間を制限することで、注目すべき成功を収めてきた。
実世界の劣化に適応可能な新しい視点である部分的ガイダンスを導入することでPGDiffを提案する。
提案手法は,既存の拡散優先手法に勝るだけでなく,タスク固有モデルと良好に競合する。
論文 参考訳(メタデータ) (2023-09-19T17:51:33Z) - ADIR: Adaptive Diffusion for Image Reconstruction [42.90778718695398]
拡散モデルのデノイングは画像生成において顕著な成功を収めており、自然画像統計に関する豊富な情報を収集している。
本稿では,拡散モデルで学習した強力な事前知識を活用しつつ,利用可能な測定値との整合性を実現する条件付きサンプリングフレームワークを提案する。
大規模かつ多様なデータセットから効率よく抽出される劣化した入力とセマンティックかつ視覚的に類似した画像を用いてLoRAに基づく適応を用いる。
論文 参考訳(メタデータ) (2022-12-06T18:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。