論文の概要: Face Hallucination via Split-Attention in Split-Attention Network
- arxiv url: http://arxiv.org/abs/2010.11575v3
- Date: Wed, 7 Jul 2021 10:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:59:24.249702
- Title: Face Hallucination via Split-Attention in Split-Attention Network
- Title(参考訳): 分割注意ネットワークにおける分割注意による顔の幻覚
- Authors: Tao Lu, Yuanzhi Wang, Yanduo Zhang, Yu Wang, Wei Liu, Zhongyuan Wang,
Junjun Jiang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、顔幻覚を促進するために広く用いられている。
顔の全体像とテクスチャの細部を同時に考慮し,新たな内部分割注意グループ(ESAG)を提案する。
これら2つの経路から特徴を融合させることにより、顔の構造の整合性と顔の詳細の忠実度が強化される。
- 参考スコア(独自算出の注目度): 58.30436379218425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, convolutional neural networks (CNNs) have been widely employed to
promote the face hallucination due to the ability to predict high-frequency
details from a large number of samples. However, most of them fail to take into
account the overall facial profile and fine texture details simultaneously,
resulting in reduced naturalness and fidelity of the reconstructed face, and
further impairing the performance of downstream tasks (e.g., face detection,
facial recognition). To tackle this issue, we propose a novel external-internal
split attention group (ESAG), which encompasses two paths responsible for
facial structure information and facial texture details, respectively. By
fusing the features from these two paths, the consistency of facial structure
and the fidelity of facial details are strengthened at the same time. Then, we
propose a split-attention in split-attention network (SISN) to reconstruct
photorealistic high-resolution facial images by cascading several ESAGs.
Experimental results on face hallucination and face recognition unveil that the
proposed method not only significantly improves the clarity of hallucinated
faces, but also encourages the subsequent face recognition performance
substantially. Codes have been released at
https://github.com/mdswyz/SISN-Face-Hallucination.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(CNN)は、多数のサンプルから高周波の詳細を予測する能力により、顔の幻覚を促進するために広く利用されている。
しかし、そのほとんどは、全体的な顔のプロファイルと微妙なテクスチャの詳細を同時に考慮しなかったため、再構成された顔の自然性と忠実度が低下し、下流タスク(例えば、顔検出、顔認識)のパフォーマンスが低下する。
この問題に対処するために,顔構造情報と顔テクスチャの詳細の2つの経路を含む,新たな内部分割注意グループ(ESAG)を提案する。
これら2つの経路の特徴を融合することにより、顔構造の一貫性と顔詳細の忠実性を同時に強化する。
そこで本研究では,複数のESAGをカスケードすることで,画像の高解像度化を実現するための分割アテンションネットワーク(SISN)を提案する。
顔の幻覚および顔認識実験の結果,提案手法は幻覚の明瞭度を著しく向上させるだけでなく,その後の顔の認識性能を大幅に向上させる。
コードはhttps://github.com/mdswyz/SISN-Face-Hallucinationでリリースされた。
関連論文リスト
- Identity-Preserving Pose-Robust Face Hallucination Through Face Subspace
Prior [14.353574903736343]
新たな顔超解像法が導入され、幻覚した顔は、利用可能な訓練面に散らばった部分空間に置かれざるを得なくなる。
3次元辞書アライメント方式も提示され、アルゴリズムは制御不能な条件下での低解像度の顔の処理が可能となる。
いくつかのよく知られた顔データセットに対して行われた広範囲な実験において、提案アルゴリズムは、詳細で地上に近い真理結果を生成することにより、顕著な性能を示す。
論文 参考訳(メタデータ) (2021-11-20T17:08:38Z) - TANet: A new Paradigm for Global Face Super-resolution via
Transformer-CNN Aggregation Network [72.41798177302175]
本稿では, 顔構造特徴の表現能力を完全に探求する自己認識機構(すなわち Transformer のコア)に基づく新しいパラダイムを提案する。
具体的には、2つの経路からなるTransformer-CNNアグリゲーションネットワーク(TANet)を設計する。
上記の2つの経路から特徴を集約することにより、グローバルな顔の構造の整合性と局所的な顔のディテール復元の忠実度を同時に強化する。
論文 参考訳(メタデータ) (2021-09-16T18:15:07Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Towards NIR-VIS Masked Face Recognition [47.00916333095693]
近赤外可視(NIR-VIS)顔認識は異種顔認識において最も一般的な症例である。
2つのドメインの顔表現で共有される相互情報を最大化するための新しいトレーニング手法を提案する。
さらに、既存のNIR画像からマスク面を合成するために、3次元顔再構成に基づくアプローチを用いる。
論文 参考訳(メタデータ) (2021-04-14T10:40:09Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z) - Face Hallucination with Finishing Touches [65.14864257585835]
本稿では,超解像とフロンティア化を同時に行うVivid Face Hallucination Generative Adversarial Network (VividGAN)を提案する。
VividGANは粗いレベルと細かなレベルのFace Hallucination Networks (FHnet)と、粗いDとファインDの2つの識別器で構成されている。
実験により、VvidGANは、フォトリアリスティックな正面HR面を達成し、下流タスクにおいて優れた性能を達成できることが示された。
論文 参考訳(メタデータ) (2020-02-09T07:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。