論文の概要: MyTimeMachine: Personalized Facial Age Transformation
- arxiv url: http://arxiv.org/abs/2411.14521v1
- Date: Thu, 21 Nov 2024 18:54:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:03:06.236692
- Title: MyTimeMachine: Personalized Facial Age Transformation
- Title(参考訳): MyTimeMachine: パーソナライズされた顔の年齢変化
- Authors: Luchao Qi, Jiaye Wu, Bang Gong, Annie N. Wang, David W. Jacobs, Roni Sengupta,
- Abstract要約: MyTMは、グローバルな老化と個人の写真コレクションを組み合わせて、パーソナライズされた年齢変化を学ぶ。
われわれのアプローチはビデオにも拡張でき、高品質、アイデンティティ保存、時間的に一貫した老化効果を達成できる。
- 参考スコア(独自算出の注目度): 8.57541218633766
- License:
- Abstract: Facial aging is a complex process, highly dependent on multiple factors like gender, ethnicity, lifestyle, etc., making it extremely challenging to learn a global aging prior to predict aging for any individual accurately. Existing techniques often produce realistic and plausible aging results, but the re-aged images often do not resemble the person's appearance at the target age and thus need personalization. In many practical applications of virtual aging, e.g. VFX in movies and TV shows, access to a personal photo collection of the user depicting aging in a small time interval (20$\sim$40 years) is often available. However, naive attempts to personalize global aging techniques on personal photo collections often fail. Thus, we propose MyTimeMachine (MyTM), which combines a global aging prior with a personal photo collection (using as few as 50 images) to learn a personalized age transformation. We introduce a novel Adapter Network that combines personalized aging features with global aging features and generates a re-aged image with StyleGAN2. We also introduce three loss functions to personalize the Adapter Network with personalized aging loss, extrapolation regularization, and adaptive w-norm regularization. Our approach can also be extended to videos, achieving high-quality, identity-preserving, and temporally consistent aging effects that resemble actual appearances at target ages, demonstrating its superiority over state-of-the-art approaches.
- Abstract(参考訳): 顔の老化は複雑なプロセスであり、性別、民族性、ライフスタイルなど複数の要因に大きく依存しているため、グローバルな老化を正確に予測する前に学ぶことは極めて困難である。
既存の技術は、しばしば現実的かつ妥当な老化結果を生み出すが、再老化画像は、ターゲット年齢における人物の外観と似ていないため、パーソナライズが必要な場合が多い。
映画やテレビ番組のVFXなどのバーチャルエイジングの多くの実践的応用では、小さな時間間隔(20$\sim$40年)で老化を描いたユーザーの個人写真コレクションへのアクセスがしばしば利用可能である。
しかし、個人写真コレクションのグローバルな老化テクニックをパーソナライズしようとするナイーブな試みは、しばしば失敗する。
そこで,MyTimeMachine(MyTM)を提案する。このMyTimeMachineは,世界的高齢化と個人写真コレクション(50枚程度の画像を使用する)を組み合わせることで,パーソナライズされた年齢変化を学習する。
本稿では、パーソナライズされた老化機能とグローバルな老化機能を組み合わせた新しいAdapter Networkを紹介し、StyleGAN2で再老化画像を生成する。
また、アダプタネットワークをパーソナライズするために、パーソナライズされた老化損失、補外正規化、適応的なw-ノルム正規化の3つの損失関数を導入する。
われわれのアプローチはビデオにも拡張可能で、高品質、アイデンティティ保存、時間的に一貫した老化効果を達成でき、ターゲット年齢の実際の出現と類似しており、最先端のアプローチよりも優位性を示している。
関連論文リスト
- DiffAge3D: Diffusion-based 3D-aware Face Aging [61.3027596093854]
本稿では,DiffAge3Dを提案する。DiffAge3Dは3D設定で忠実な老化とアイデンティティ保存を行う最初の3D対応高齢化フレームワークである。
我々のフレームワークは、トレーニング済みの3D GANを利用して、堅牢な3D対応老化データセット生成パイプラインを含む。
DiffAge3Dは既存の手法、特にマルチビューの老朽化や細部保存において優れることを示す。
論文 参考訳(メタデータ) (2024-08-28T16:36:09Z) - ToonAging: Face Re-Aging upon Artistic Portrait Style Transfer [6.305926064192544]
ポートレート・スタイル・トランスファーと組み合わさって, 顔のリエイジングのための新しいワンステージ手法を提案する。
同じPRドメイン内でトレーニングされた既存の顔のリエイジとスタイル転送ネットワークを活用します。
提案手法は,ドメインレベルの微調整手法に比べて柔軟性が高い。
論文 参考訳(メタデータ) (2024-02-05T05:25:33Z) - PortraitBooth: A Versatile Portrait Model for Fast Identity-preserved
Personalization [92.90392834835751]
PortraitBoothは高効率、堅牢なID保存、表現編集可能な画像生成のために設計されている。
PortraitBoothは計算オーバーヘッドを排除し、アイデンティティの歪みを軽減する。
生成した画像の多様な表情に対する感情認識のクロスアテンション制御が組み込まれている。
論文 参考訳(メタデータ) (2023-12-11T13:03:29Z) - Pluralistic Aging Diffusion Autoencoder [63.50599304294062]
顔の老化は、複数のプラプシブルな老化パターンが与えられた入力に対応する可能性があるため、不適切な問題である。
本稿では,CLIP駆動型多言語時効拡散オートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-03-20T13:20:14Z) - Continuous Face Aging via Self-estimated Residual Age Embedding [8.443742714362521]
本稿では,線形年齢推定器をGANモデルに組み込む統一ネットワーク構造を提案する。
埋め込み年齢推定器は、エンコーダおよびデコーダとの共同訓練を行い、顔画像の年齢を推定する。
パーソナライズされた目標年齢埋め込みは、現在の年齢のパーソナライズされた残存年齢埋め込みと、目標年齢の老化ベースの両方を組み込んで合成される。
論文 参考訳(メタデータ) (2021-04-30T18:06:17Z) - Continuous Face Aging Generative Adversarial Networks [11.75204350455584]
顔の老化は、入力画像の顔を指定された年齢に翻訳することを目的としたタスクです。
それまでの方法は、それぞれが10年からなる離散年齢群を生成できるだけに限られていた。
CFA-GAN (Continuous face aging generative adversarial Network) を提案する。
論文 参考訳(メタデータ) (2021-02-26T06:22:25Z) - Only a Matter of Style: Age Transformation Using a Style-Based
Regression Model [46.48263482909809]
本稿では,事前学習した未条件GANの潜在空間に実際の顔画像をエンコードする画像から画像への変換手法を提案する。
所望の年齢に対応する潜時符号を生成する際に,エンコーダを明示的に案内するために,事前学習した年齢回帰ネットワークを用いる。
論文 参考訳(メタデータ) (2021-02-04T17:33:28Z) - Age Gap Reducer-GAN for Recognizing Age-Separated Faces [72.26969872180841]
本稿では,年齢変化に伴う顔と時間変化をマッチングする新しいアルゴリズムを提案する。
提案手法は,顔の年齢推定と年齢別顔の検証を組み合わせた統合フレームワークである。
論文 参考訳(メタデータ) (2020-11-11T16:43:32Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - High Resolution Face Age Editing [5.809784853115826]
敵の訓練は 画像操作において 最も視覚的に印象的な結果を生み出しました
顔年齢編集のためのエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-05-09T09:59:51Z) - Lifespan Age Transformation Synthesis [40.963816368819415]
本稿では,新しい画像から画像へ生成する対向的ネットワークアーキテクチャを提案する。
我々のフレームワークは、1枚の写真から0歳から70歳までの完全な頭部像を予測できる。
論文 参考訳(メタデータ) (2020-03-21T22:48:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。