論文の概要: Facial UV Map Completion for Pose-invariant Face Recognition: A Novel
Adversarial Approach based on Coupled Attention Residual UNets
- arxiv url: http://arxiv.org/abs/2011.00912v1
- Date: Mon, 2 Nov 2020 11:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:13:41.060189
- Title: Facial UV Map Completion for Pose-invariant Face Recognition: A Novel
Adversarial Approach based on Coupled Attention Residual UNets
- Title(参考訳): ポーズ不変顔認識のための顔のuvマップ補完--協調注意残差に基づく新しい敵対的アプローチ
- Authors: In Seop Na, Chung Tran, Dung Nguyen and Sang Dinh
- Abstract要約: 本稿では,UVマップの完成度を向上させるために,Attention ResCUNet-GANと呼ばれる新しい生成モデルを提案する。
提案手法は既存手法に比べて優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 3.999563862575646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose-invariant face recognition refers to the problem of identifying or
verifying a person by analyzing face images captured from different poses. This
problem is challenging due to the large variation of pose, illumination and
facial expression. A promising approach to deal with pose variation is to
fulfill incomplete UV maps extracted from in-the-wild faces, then attach the
completed UV map to a fitted 3D mesh and finally generate different 2D faces of
arbitrary poses. The synthesized faces increase the pose variation for training
deep face recognition models and reduce the pose discrepancy during the testing
phase. In this paper, we propose a novel generative model called Attention
ResCUNet-GAN to improve the UV map completion. We enhance the original UV-GAN
by using a couple of U-Nets. Particularly, the skip connections within each
U-Net are boosted by attention gates. Meanwhile, the features from two U-Nets
are fused with trainable scalar weights. The experiments on the popular
benchmarks, including Multi-PIE, LFW, CPLWF and CFP datasets, show that the
proposed method yields superior performance compared to other existing methods.
- Abstract(参考訳): ポーズ不変顔認識(Pose-invariant face recognition)とは、異なるポーズから撮影された顔画像を分析して人物を識別または検証する問題である。
この問題は、ポーズ、照明、表情の多様さによって困難である。
ポーズの変化に対処するための有望なアプローチは、未完成なUVマップをWildの顔から抽出し、完成したUVマップを装着された3Dメッシュにアタッチし、最終的に任意のポーズの異なる2D顔を生成することである。
合成顔は、深層顔認識モデルの訓練のためのポーズ変動を増大させ、テストフェーズにおけるポーズ差を低減する。
本稿では,UVマップの完成度を向上させるために,Attention ResCUNet-GANと呼ばれる新しい生成モデルを提案する。
元のUV-GANを2つのU-Netを用いて拡張する。
特に、各u-net内のスキップ接続はアテンションゲートによって促進される。
一方、2つのu-netの機能にはトレーニング可能なスカラー重みが組み込まれている。
また,Multi-PIE,LFW,CPLWF,CFPデータセットなどのベンチマーク実験により,提案手法が既存手法に比べて優れた性能を示した。
関連論文リスト
- Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - POCE: Pose-Controllable Expression Editing [75.7701103792032]
本稿では,新しいポーズ制御可能な表現編集ネットワークであるPOCEについて述べる。
リアルな表情と頭ポーズを同時に生成できる。
学習したモデルは、様々な新しいポーズの下で、現実的で高忠実な表情を生成することができる。
論文 参考訳(メタデータ) (2023-04-18T12:26:19Z) - Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning [70.75369367311897]
3D対応のグローバルな対応は、グローバルな意味的相関、局所的な変形、および3D人体の幾何学的先行を共同でエンコードする信頼性のあるフローである。
対向ジェネレータは、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
論文 参考訳(メタデータ) (2022-11-25T12:16:21Z) - FSGANv2: Improved Subject Agnostic Face Swapping and Reenactment [28.83743270895698]
顔交換と再現のためにFSGAN(Face Swapping GAN)を提案する。
従来とは違って,顔のトレーニングを必要とせず,顔のペアに適用可能な被験者交換方式を提案する。
顔の表情や表情の変化を調整し、単一の画像やビデオシーケンスに適用できる、新しい反復的深層学習に基づく顔の再現手法を導出する。
映像系列に対しては,再現性,デラウネー三角測量,バリ座標に基づく連続的な顔ビューの認識を導入し,顔領域をフェースコンプリートネットワークで処理する。
論文 参考訳(メタデータ) (2022-02-25T21:04:39Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Pose Invariant Person Re-Identification using Robust Pose-transformation
GAN [11.338815177557645]
人物再識別(re-ID)は、興味ある人物の単一の事例から、画像ギャラリーから人物の画像を検索することを目的としている。
いくつかの進歩にもかかわらず、ロバストな人物再同定のための識別的アイデンティティ感と視点不変特徴の学習は、人間のポーズの変化が大きいため、大きな課題である。
本稿では,ポーズ回帰と特徴融合を組み合わせた生成逆数ネットワークの画像生成機能を利用して,ポーズ不変な特徴学習を実現するre-IDパイプラインを提案する。
論文 参考訳(メタデータ) (2021-04-11T15:47:03Z) - SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation [46.85865451812981]
本稿では,まず,この2.5D表現に基づいて,まず2.5D表現の集合を回帰し,さらに深部認識部分関連アルゴリズムを用いて3D絶対ポーズを再構成するシステムを提案する。
このような単発ボトムアップ方式により、システムは人物間の深度関係をよりよく学習し、推論し、3Dと2Dの両方のポーズ推定を改善することができる。
論文 参考訳(メタデータ) (2020-08-26T09:56:07Z) - Self-Supervised Monocular 3D Face Reconstruction by Occlusion-Aware
Multi-view Geometry Consistency [40.56510679634943]
マルチビュー幾何整合性を利用した自己教師付きトレーニングアーキテクチャを提案する。
画素の整合性損失,奥行きの整合性損失,顔のランドマークに基づくエピポーラロスを含む,多視点整合性のための3つの新しい損失関数を設計する。
提案手法は精度が高く,特に多彩な表現,ポーズ,照明条件下では堅牢である。
論文 参考訳(メタデータ) (2020-07-24T12:36:09Z) - Fusing Wearable IMUs with Multi-View Images for Human Pose Estimation: A
Geometric Approach [76.10879433430466]
多視点画像と人手足に装着したIMUから3次元人間のポーズを推定する。
まず2つの信号から2Dのポーズを検出し、3D空間に持ち上げる。
単純な2段階のアプローチは、公開データセット上の大きなマージンによる最先端のエラーを低減する。
論文 参考訳(メタデータ) (2020-03-25T00:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。