論文の概要: Attention-guided Progressive Mapping for Profile Face Recognition
- arxiv url: http://arxiv.org/abs/2106.14124v2
- Date: Tue, 29 Jun 2021 10:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 11:26:12.725221
- Title: Attention-guided Progressive Mapping for Profile Face Recognition
- Title(参考訳): プロファイル認識のための注意誘導プログレッシブマッピング
- Authors: Junyang Huang and Changxing Ding
- Abstract要約: 顔認証のクロスポーズは依然として重要な課題である。
正面の顔の特徴空間にトラバースすることで、ポーズ・ロバストな特徴を学習することは、この問題を緩和するための効果的で安価な方法を提供する。
- 参考スコア(独自算出の注目度): 12.792576041526289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past few years have witnessed great progress in the domain of face
recognition thanks to advances in deep learning. However, cross pose face
recognition remains a significant challenge. It is difficult for many deep
learning algorithms to narrow the performance gap caused by pose variations;
the main reasons for this relate to the intra-class discrepancy between face
images in different poses and the pose imbalances of training datasets.
Learning pose-robust features by traversing to the feature space of frontal
faces provides an effective and cheap way to alleviate this problem. In this
paper, we present a method for progressively transforming profile face
representations to the canonical pose with an attentive pair-wise loss.
Firstly, to reduce the difficulty of directly transforming the profile face
features into a frontal pose, we propose to learn the feature residual between
the source pose and its nearby pose in a block-byblock fashion, and thus
traversing to the feature space of a smaller pose by adding the learned
residual. Secondly, we propose an attentive pair-wise loss to guide the feature
transformation progressing in the most effective direction. Finally, our
proposed progressive module and attentive pair-wise loss are light-weight and
easy to implement, adding only about 7:5% extra parameters. Evaluations on the
CFP and CPLFW datasets demonstrate the superiority of our proposed method. Code
is available at https://github.com/hjy1312/AGPM.
- Abstract(参考訳): 過去数年間、ディープラーニングの進歩により顔認識の分野で大きな進歩が見られた。
しかし、クロスポーズ顔認識は依然として大きな課題である。
多くのディープラーニングアルゴリズムでは、ポーズの変化によるパフォーマンスギャップを狭めることが困難であり、その主な理由は、異なるポーズにおける顔画像間のクラス内不一致と、トレーニングデータセットのポーズ不均衡である。
前面の特徴空間を横切ることでポーズ・ロバストな特徴を学習することは、この問題を緩和するための効果的で安価な方法を提供する。
本稿では,一対方向の注意損失を伴うプロファイル顔表現を正準ポーズに漸進的に変換する手法を提案する。
まず,プロファイルフェースを正面ポーズへ直接変換することの難しさを軽減するため,ブロック・バイ・ブロック方式でソースポーズとその近傍ポーズ間の特徴残差を学習し,学習残差を付加することにより,より小さなポーズの特徴空間に遷移することを提案する。
次に,最も効果的な方向に進展する特徴変換を導くために,対方向の注意的損失を提案する。
最後に、提案したプログレッシブモジュールと注意的ペアワイズ損失は軽量で実装が容易であり、約7:5%のパラメータしか追加しない。
CFPおよびCPLFWデータセットの評価は,提案手法の優位性を示す。
コードはhttps://github.com/hjy1312/AGPMで入手できる。
関連論文リスト
- Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - High-Fidelity Face Swapping with Style Blending [16.024260677867076]
高忠実な顔交換のための革新的なエンドツーエンドフレームワークを提案する。
まず、スタイルGANベースの顔属性エンコーダを導入し、顔から重要な特徴を抽出し、潜在スタイルコードに変換する。
第二に、ターゲットからターゲットへFace IDを効果的に転送するアテンションベースのスタイルブレンディングモジュールを導入する。
論文 参考訳(メタデータ) (2023-12-17T23:22:37Z) - Effective Adapter for Face Recognition in the Wild [72.75516495170199]
私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
論文 参考訳(メタデータ) (2023-12-04T08:55:46Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Pose-disentangled Contrastive Learning for Self-supervised Facial
Representation [12.677909048435408]
本稿では,汎用的な自己監督型顔表情表現のための,Pose-disentangled Contrastive Learning (PCL) 手法を提案する。
当社のPCLは、まず、顔認識機能からポーズ関連機能を切り離した、ポーズ異形デコーダ(PDD)を考案した。
次に、同じ画像のデータ拡張に基づいてポーズ関連情報を学習する、ポーズ関連コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-24T09:30:51Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - Pose Attention-Guided Profile-to-Frontal Face Recognition [13.96448286983864]
本稿では,アテンション機構を介してポーズを補助情報として活用するための新しいアプローチを提案する。
我々は、プロファイル顔からポーズ非依存の特徴抽出を特別に導くために、新しいポーズアテンションブロック(PAB)を開発した。
より具体的に言うと、PABはネットワークがチャネル次元と空間次元の両方に沿って重要な特徴に焦点を合わせるのに役立つように設計されている。
論文 参考訳(メタデータ) (2022-09-15T02:06:31Z) - PAM: Pose Attention Module for Pose-Invariant Face Recognition [3.0839245814393723]
ポーズ不変顔認識のための軽量で実装が容易な注目ブロックである Pose Attention Module (PAM) を提案する。
特に、PAMは、ポーズのバリエーション間の残差をソフトゲート機構で学習することにより、階層的特徴空間における正面特徴変換を行う。
論文 参考訳(メタデータ) (2021-11-23T15:18:33Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - PoseFace: Pose-Invariant Features and Pose-Adaptive Loss for Face
Recognition [42.62320574369969]
本稿では,顔のランドマークを利用してポーズ不変の特徴を解消し,不均衡問題に適応的に対処するためにポーズ適応的損失を利用する,効率的なPoseFaceフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-25T03:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。