論文の概要: SwinIFS: Landmark Guided Swin Transformer For Identity Preserving Face Super Resolution
- arxiv url: http://arxiv.org/abs/2601.01406v1
- Date: Sun, 04 Jan 2026 07:04:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.328527
- Title: SwinIFS: Landmark Guided Swin Transformer For Identity Preserving Face Super Resolution
- Title(参考訳): SwinIFS:顔の超解像を保存できるランドマーク付きスウィントランス
- Authors: Habiba Kausar, Saeed Anwar, Omar Jamal Hammad, Abdul Bais,
- Abstract要約: 顔の超解像度は、高画質の低解像度入力から高品質の顔画像を取り戻すことを目的としている。
この研究は、構造的先行と階層的注意機構を統合するランドマーク誘導超解像フレームワークであるSwinIFSを紹介する。
CelebAベンチマークの実験では、SwinIFSはより優れた知覚品質、よりシャープな再構築、アイデンティティ保持の改善を実現している。
- 参考スコア(独自算出の注目度): 19.466362458578917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face super-resolution aims to recover high-quality facial images from severely degraded low-resolution inputs, but remains challenging due to the loss of fine structural details and identity-specific features. This work introduces SwinIFS, a landmark-guided super-resolution framework that integrates structural priors with hierarchical attention mechanisms to achieve identity-preserving reconstruction at both moderate and extreme upscaling factors. The method incorporates dense Gaussian heatmaps of key facial landmarks into the input representation, enabling the network to focus on semantically important facial regions from the earliest stages of processing. A compact Swin Transformer backbone is employed to capture long-range contextual information while preserving local geometry, allowing the model to restore subtle facial textures and maintain global structural consistency. Extensive experiments on the CelebA benchmark demonstrate that SwinIFS achieves superior perceptual quality, sharper reconstructions, and improved identity retention; it consistently produces more photorealistic results and exhibits strong performance even under 8x magnification, where most methods fail to recover meaningful structure. SwinIFS also provides an advantageous balance between reconstruction accuracy and computational efficiency, making it suitable for real-world applications in facial enhancement, surveillance, and digital restoration. Our code, model weights, and results are available at https://github.com/Habiba123-stack/SwinIFS.
- Abstract(参考訳): 顔超解像は、高度に劣化した低解像度入力から高品質な顔画像を取り戻すことを目的としている。
この研究はSwinIFSというランドマーク誘導型超解像フレームワークを導入し、構造的先行と階層的注意機構を統合して、中等度および極度の上向きの要素でアイデンティティ保存の再構築を実現する。
この方法は、キー顔のランドマークの密度の高いガウス熱マップを入力表現に組み込んで、ネットワークが処理の初期段階から意味的に重要な顔領域に集中できるようにする。
コンパクトなスウィントランスフォーマーバックボーンは、局所的な幾何学を保ちながら、長距離のコンテキスト情報をキャプチャするために使用され、微妙な顔のテクスチャを復元し、グローバルな構造的整合性を維持することができる。
CelebAベンチマークの広範な実験により、SwinIFSはより優れた知覚品質、よりシャープな再構築、そしてアイデンティティ保持の改善を実現していることが示された。
SwinIFSはまた、再構築精度と計算効率の利点のバランスも備えており、顔の強化、監視、デジタル修復における現実世界の応用に適している。
私たちのコード、モデルウェイト、結果はhttps://github.com/Habiba123-stack/SwinIFS.comで公開されています。
関連論文リスト
- W-Net: A Facial Feature-Guided Face Super-Resolution Network [8.037821981254389]
Face Super-Resolutionは、高解像度 (HR) の顔画像を低解像度 (LR) の顔画像から復元することを目的としている。
既存手法は, 再建効率が低く, 事前情報の利用が不十分であるため, 理想的ではない。
本稿では,この課題に対処するため,W-Netと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-02T09:05:40Z) - Multi-Prior Learning via Neural Architecture Search for Blind Face
Restoration [61.27907052910136]
Blind Face Restoration (BFR)は、高品質な顔画像から高品質な顔画像を復元することを目的としている。
1)手動チューニングを伴わない強力なネットワークアーキテクチャの導出方法,2) 複数の顔前者からの補完情報を1つのネットワークで取得して復元性能を向上させる方法,の2つの大きな課題がある。
特定検索空間内において,適切な特徴抽出アーキテクチャを適応的に探索する顔復元検索ネットワーク(FRSNet)を提案する。
論文 参考訳(メタデータ) (2022-06-28T12:29:53Z) - Enhancing Quality of Pose-varied Face Restoration with Local Weak
Feature Sensing and GAN Prior [29.17397958948725]
本稿では,前向きに顔の再生を行うブラインド・フェイス・リカバリ・ネットワークを提案する。
我々のモデルは、顔の復元や顔の超解像処理において、従来の技術よりも優れている。
論文 参考訳(メタデータ) (2022-05-28T09:23:48Z) - CTCNet: A CNN-Transformer Cooperation Network for Face Image
Super-Resolution [64.06360660979138]
超解像課題に対する効率的なCNN-Transformer Cooperation Network (CTCNet)を提案する。
本稿ではまず,FSAUとTransformerブロックから構成されるLGCM(Local-Global Feature Cooperation Module)を考案した。
次に、エンコードされた機能を強化するために、効率的な機能リファインメントモジュール(FRM)を設計する。
論文 参考訳(メタデータ) (2022-04-19T06:38:29Z) - TANet: A new Paradigm for Global Face Super-resolution via
Transformer-CNN Aggregation Network [72.41798177302175]
本稿では, 顔構造特徴の表現能力を完全に探求する自己認識機構(すなわち Transformer のコア)に基づく新しいパラダイムを提案する。
具体的には、2つの経路からなるTransformer-CNNアグリゲーションネットワーク(TANet)を設計する。
上記の2つの経路から特徴を集約することにより、グローバルな顔の構造の整合性と局所的な顔のディテール復元の忠実度を同時に強化する。
論文 参考訳(メタデータ) (2021-09-16T18:15:07Z) - Network Architecture Search for Face Enhancement [82.25775020564654]
我々は、NASFE(Network Architecture Search for Face Enhancement)と呼ばれるマルチタスクの顔復元ネットワークを提案する。
NASFEは、単一の劣化(すなわち)を含む低品質の顔画像を高めることができる。
ノイズまたはぼやけ)または複数の劣化(ノイズ+ブラル+ローライト)
論文 参考訳(メタデータ) (2021-05-13T19:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。