論文の概要: When Age-Invariant Face Recognition Meets Face Age Synthesis: A
Multi-Task Learning Framework
- arxiv url: http://arxiv.org/abs/2103.01520v2
- Date: Wed, 3 Mar 2021 02:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 12:26:48.208444
- Title: When Age-Invariant Face Recognition Meets Face Age Synthesis: A
Multi-Task Learning Framework
- Title(参考訳): 年齢不変顔認識が顔年齢合成に会うとき:マルチタスク学習フレームワーク
- Authors: Zhizhong Huang, Junping Zhang, Hongming Shan
- Abstract要約: MTLFaceは、顔合成を楽しみながら、年齢不変のアイデンティティ関連表現を学習することができる。
グループレベルのfasを実現する従来のone-hotエンコーディングとは対照的に,アイデンティティレベルfasを実現するための新しいid条件モジュールを提案する。
5つのベンチマーククロスエイジデータセットに対する大規模な実験は、提案したMTLFaceの優れた性能を示す。
- 参考スコア(独自算出の注目度): 20.579282497730944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To minimize the effects of age variation in face recognition, previous work
either extracts identity-related discriminative features by minimizing the
correlation between identity- and age-related features, called age-invariant
face recognition (AIFR), or removes age variation by transforming the faces of
different age groups into the same age group, called face age synthesis (FAS);
however, the former lacks visual results for model interpretation while the
latter suffers from artifacts compromising downstream recognition. Therefore,
this paper proposes a unified, multi-task framework to jointly handle these two
tasks, termed MTLFace, which can learn age-invariant identity-related
representation while achieving pleasing face synthesis. Specifically, we first
decompose the mixed face feature into two uncorrelated components -- identity-
and age-related feature -- through an attention mechanism, and then decorrelate
these two components using multi-task training and continuous domain adaption.
In contrast to the conventional one-hot encoding that achieves group-level FAS,
we propose a novel identity conditional module to achieve identity-level FAS,
with a weight-sharing strategy to improve the age smoothness of synthesized
faces. In addition, we collect and release a large cross-age face dataset with
age and gender annotations to advance the development of the AIFR and FAS.
Extensive experiments on five benchmark cross-age datasets demonstrate the
superior performance of our proposed MTLFace over existing state-of-the-art
methods for AIFR and FAS. We further validate MTLFace on two popular general
face recognition datasets, showing competitive performance for face recognition
in the wild. The source code and dataset are available
at~\url{https://github.com/Hzzone/MTLFace}.
- Abstract(参考訳): To minimize the effects of age variation in face recognition, previous work either extracts identity-related discriminative features by minimizing the correlation between identity- and age-related features, called age-invariant face recognition (AIFR), or removes age variation by transforming the faces of different age groups into the same age group, called face age synthesis (FAS); however, the former lacks visual results for model interpretation while the latter suffers from artifacts compromising downstream recognition.
そこで本稿では,MTLFaceと呼ばれる2つのタスクを協調的に処理する統合型マルチタスクフレームワークを提案する。
具体的には、顔の特徴を2つの非相関なコンポーネント(アイデンティティと年齢関連機能)に注意メカニズムで分解し、マルチタスクトレーニングと継続的ドメインアダプションを使用してこれらの2つのコンポーネントをデコレーションします。
グループレベルのfasを実現する従来のone-hotエンコーディングとは対照的に, 合成顔の年齢平滑性を改善するための重み共有戦略を用いて, アイデンティティレベルfasを実現する新しいアイデンティティ条件モジュールを提案する。
さらに、AIFRとFASの開発を進めるために、年齢と性別のアノテーションを備えた大規模なクロスエイジフェイスデータセットを収集し、リリースします。
5つのベンチマーククロスエイジデータセットに関する広範な実験は、既存のaifrとfasの最先端メソッドよりも優れたmtlfaceの性能を示している。
さらに、MTLFaceを2つの一般的な顔認識データセット上で検証し、野生における顔認識の競合性能を示す。
ソースコードとデータセットは~\url{https://github.com/Hzzone/MTLFace}で入手できる。
関連論文リスト
- Diverse and Lifespan Facial Age Transformation Synthesis with Identity Variation Rationality Metric [12.438204529412706]
人間の顔にディバース・ライフスパン・エイジ・トランスフォーメーションを実現するために、$rmDLATboldsymbol+$を導入する。
モデルに埋め込まれた多様性のメカニズムとは別に、複数の一貫性の制限が活用され、反ファクト的な老化合成を防ぐことができる。
論文 参考訳(メタデータ) (2024-01-25T09:26:08Z) - When Age-Invariant Face Recognition Meets Face Age Synthesis: A
Multi-Task Learning Framework and A New Benchmark [45.31997043789471]
MTLFaceは、モデル解釈のための表情合成を行いながら、年齢不変の識別関連表現を顔認識のために学習することができる。
我々は、年齢と性別のアノテーションを備えた大規模な顔データセットと、長寿児の追跡に特化して設計された新しいベンチマークをリリースする。
論文 参考訳(メタデータ) (2022-10-17T07:04:19Z) - A Unified Framework for Biphasic Facial Age Translation with
Noisy-Semantic Guided Generative Adversarial Networks [54.57520952117123]
バイファシックな顔の年齢変換は、任意の年齢における入力顔の出現を予測することを目的としている。
本稿では,ノイズ・セマンティック誘導合成対向ネットワークを用いた二相性顔面年齢変換のための統一的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-15T15:30:35Z) - FP-Age: Leveraging Face Parsing Attention for Facial Age Estimation in
the Wild [50.8865921538953]
年齢推定に顔のセマンティクスを明示的に組み込む手法を提案する。
我々は,顔解析に基づくネットワークを設計し,異なるスケールで意味情報を学習する。
提案手法は,既存の年齢推定手法を常に上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-21T14:31:32Z) - Continuous Face Aging Generative Adversarial Networks [11.75204350455584]
顔の老化は、入力画像の顔を指定された年齢に翻訳することを目的としたタスクです。
それまでの方法は、それぞれが10年からなる離散年齢群を生成できるだけに限られていた。
CFA-GAN (Continuous face aging generative adversarial Network) を提案する。
論文 参考訳(メタデータ) (2021-02-26T06:22:25Z) - PFA-GAN: Progressive Face Aging with Generative Adversarial Network [19.45760984401544]
本論文では,PFA-GANを基盤とした新しい顔老化フレームワークを提案する。
このフレームワークは、蓄積されたアーティファクトと曖昧さを取り除くために、エンドツーエンドでトレーニングすることができる。
実験により,既存の (c) GANs 法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-07T05:45:13Z) - Age Gap Reducer-GAN for Recognizing Age-Separated Faces [72.26969872180841]
本稿では,年齢変化に伴う顔と時間変化をマッチングする新しいアルゴリズムを提案する。
提案手法は,顔の年齢推定と年齢別顔の検証を組み合わせた統合フレームワークである。
論文 参考訳(メタデータ) (2020-11-11T16:43:32Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。