論文の概要: Disentangled Lifespan Face Synthesis
- arxiv url: http://arxiv.org/abs/2108.02874v1
- Date: Thu, 5 Aug 2021 22:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 00:11:04.139461
- Title: Disentangled Lifespan Face Synthesis
- Title(参考訳): 異方性ライフスパン顔合成
- Authors: Sen He, Wentong Liao, Michael Ying Yang, Yi-Zhe Song, Bodo Rosenhahn,
Tao Xiang
- Abstract要約: ライフスパン顔合成(LFS)モデルは、1つのスナップショットのみを基準として、人の人生全体の写真リアル顔画像のセットを作成することを目的としている。
対象年齢コードから生成された顔画像は, 形状やテクスチャの生鮮やかな変換によって, 年齢に敏感に反映されることが期待される。
これは、エンコーダから形状、テクスチャ、アイデンティティの特徴を別々に抽出することで達成される。
- 参考スコア(独自算出の注目度): 100.29058545878341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A lifespan face synthesis (LFS) model aims to generate a set of
photo-realistic face images of a person's whole life, given only one snapshot
as reference. The generated face image given a target age code is expected to
be age-sensitive reflected by bio-plausible transformations of shape and
texture, while being identity preserving. This is extremely challenging because
the shape and texture characteristics of a face undergo separate and highly
nonlinear transformations w.r.t. age. Most recent LFS models are based on
generative adversarial networks (GANs) whereby age code conditional
transformations are applied to a latent face representation. They benefit
greatly from the recent advancements of GANs. However, without explicitly
disentangling their latent representations into the texture, shape and identity
factors, they are fundamentally limited in modeling the nonlinear age-related
transformation on texture and shape whilst preserving identity. In this work, a
novel LFS model is proposed to disentangle the key face characteristics
including shape, texture and identity so that the unique shape and texture age
transformations can be modeled effectively. This is achieved by extracting
shape, texture and identity features separately from an encoder. Critically,
two transformation modules, one conditional convolution based and the other
channel attention based, are designed for modeling the nonlinear shape and
texture feature transformations respectively. This is to accommodate their
rather distinct aging processes and ensure that our synthesized images are both
age-sensitive and identity preserving. Extensive experiments show that our LFS
model is clearly superior to the state-of-the-art alternatives. Codes and demo
are available on our project website:
\url{https://senhe.github.io/projects/iccv_2021_lifespan_face}.
- Abstract(参考訳): lifespan face synthesis(lfs)モデルは、1つのスナップショットのみを参考にして、人の生涯のフォトリアリスティックな顔画像を生成することを目的としている。
対象年齢コードに付与された顔画像は, 形状やテクスチャの生鮮やかな変換により, 年齢感を反映し, 同一性を保ちつつも, 年齢感が期待できる。
これは、顔の形状とテクスチャ特性が分離され、非常に非線形な変換 w.r.t となるため、非常に難しい。
年齢。
最近のLFSモデルはGAN(Generative Adversarial Network)に基づいており、年齢コード条件変換を潜在顔表現に適用する。
GANの最近の進歩から大きな恩恵を受けている。
しかしながら、潜在表現をテクスチャ、形状、アイデンティティ要素に明示的に区別せずに、アイデンティティを維持しながらテクスチャと形状の非線形年齢関連変換をモデル化する上では、基本的に制限される。
そこで本研究では, 形状, テクスチャ, アイデンティティなどのキー顔特性を分離し, ユニークな形状とテクスチャ年齢変換を効果的にモデル化するための新しいlfsモデルを提案する。
これは、エンコーダから形状、テクスチャ、アイデンティティの特徴を別々に抽出することで達成される。
臨界的には, 非線形形状とテクスチャ特徴変換をそれぞれモデル化するために, 2つの変換モジュール, 1つの条件畳み込みベースおよびもう1つのチャンネルアテンションベースを設計する。
これは、かなり異なる老化プロセスに対応し、私たちの合成画像が年齢に敏感でアイデンティティを保つことを保証するためです。
我々のLFSモデルは、最先端の代替品よりも明らかに優れている。
コードとデモはプロジェクトのwebサイトにある。 \url{https://senhe.github.io/projects/iccv_2021_lifespan_face}。
関連論文リスト
- When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - AgeFlow: Conditional Age Progression and Regression with Normalizing
Flows [19.45760984401544]
年齢進行と回帰は, 顔画像の光リアリスティックな外観と老化効果, 再生効果をそれぞれ合成することを目的としている。
既存のgenerative adversarial networks (gans) ベースの手法は以下の3つの大きな問題に悩まされている。
本稿では、フローベースモデルとGANの両方の利点を統合するために、AgeFlowと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-15T15:02:07Z) - When Age-Invariant Face Recognition Meets Face Age Synthesis: A
Multi-Task Learning Framework [20.579282497730944]
MTLFaceは、顔合成を楽しみながら、年齢不変のアイデンティティ関連表現を学習することができる。
グループレベルのfasを実現する従来のone-hotエンコーディングとは対照的に,アイデンティティレベルfasを実現するための新しいid条件モジュールを提案する。
5つのベンチマーククロスエイジデータセットに対する大規模な実験は、提案したMTLFaceの優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-02T07:03:27Z) - Continuous Face Aging Generative Adversarial Networks [11.75204350455584]
顔の老化は、入力画像の顔を指定された年齢に翻訳することを目的としたタスクです。
それまでの方法は、それぞれが10年からなる離散年齢群を生成できるだけに限られていた。
CFA-GAN (Continuous face aging generative adversarial Network) を提案する。
論文 参考訳(メタデータ) (2021-02-26T06:22:25Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - Progressive Semantic-Aware Style Transformation for Blind Face
Restoration [26.66332852514812]
顔の復元のために,PSFR-GAN という新しいプログレッシブ・セマンティック・アウェア・スタイルの変換フレームワークを提案する。
提案したPSFR-GANは、入力ペアの異なるスケールからのセマンティック(パーシングマップ)とピクセル(LQ画像)空間情報をフル活用する。
実験結果から, 合成LQ入力に対して, より現実的な高分解能な結果が得られるだけでなく, 自然なLQ顔画像の一般化にも有効であることが示唆された。
論文 参考訳(メタデータ) (2020-09-18T09:27:33Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。