論文の概要: From Cradle to Cane: A Two-Pass Framework for High-Fidelity Lifespan Face Aging
- arxiv url: http://arxiv.org/abs/2506.20977v1
- Date: Thu, 26 Jun 2025 03:48:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.957532
- Title: From Cradle to Cane: A Two-Pass Framework for High-Fidelity Lifespan Face Aging
- Title(参考訳): CradleからCheeへ:高忠実なライフスパン顔の老化のための2段階のフレームワーク
- Authors: Tao Liu, Dafeng Zhang, Gengchen Li, Shizhuo Liu, Yongqi Song, Senmao Li, Shiqi Yang, Boqian Li, Kai Wang, Yaxing Wang,
- Abstract要約: 数ステップのテキスト・ツー・イメージ(T2I)拡散モデルに基づく2パスの顔エイジングフレームワークであるCradle2Caneを提案する。
第1のパスは、アダプティブノイズインジェクション(AdaNI)機構を導入することで、年齢の精度を改善することに焦点を当てている。
第2のパスは、2つのアイデンティティを意識した埋め込みにモデルを条件付けすることで、年齢固有の特徴を維持しながらアイデンティティの保存を向上させる。
- 参考スコア(独自算出の注目度): 13.362332443568562
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Face aging has become a crucial task in computer vision, with applications ranging from entertainment to healthcare. However, existing methods struggle with achieving a realistic and seamless transformation across the entire lifespan, especially when handling large age gaps or extreme head poses. The core challenge lies in balancing age accuracy and identity preservation--what we refer to as the Age-ID trade-off. Most prior methods either prioritize age transformation at the expense of identity consistency or vice versa. In this work, we address this issue by proposing a two-pass face aging framework, named Cradle2Cane, based on few-step text-to-image (T2I) diffusion models. The first pass focuses on solving age accuracy by introducing an adaptive noise injection (AdaNI) mechanism. This mechanism is guided by including prompt descriptions of age and gender for the given person as the textual condition. Also, by adjusting the noise level, we can control the strength of aging while allowing more flexibility in transforming the face. However, identity preservation is weakly ensured here to facilitate stronger age transformations. In the second pass, we enhance identity preservation while maintaining age-specific features by conditioning the model on two identity-aware embeddings (IDEmb): SVR-ArcFace and Rotate-CLIP. This pass allows for denoising the transformed image from the first pass, ensuring stronger identity preservation without compromising the aging accuracy. Both passes are jointly trained in an end-to-end way. Extensive experiments on the CelebA-HQ test dataset, evaluated through Face++ and Qwen-VL protocols, show that our Cradle2Cane outperforms existing face aging methods in age accuracy and identity consistency.
- Abstract(参考訳): 顔の老化は、エンターテイメントから医療に至るまで、コンピュータビジョンにおいて重要な課題となっている。
しかし、既存の手法は、特に大きな年齢差や極端な頭部ポーズを扱う場合、人生全体にわたって現実的でシームレスな変換を達成するのに苦労している。
鍵となる課題は、年齢の正確さとアイデンティティの保存のバランスです。
ほとんどの先行する手法は、アイデンティティの整合性を犠牲にして年齢変換を優先するか、あるいはその逆を優先する。
本研究では,2段階のテキスト・ツー・イメージ(T2I)拡散モデルに基づく2パス・フェイス・エイジング・フレームワークであるCradle2Caneを提案し,この問題に対処する。
第1のパスは、アダプティブノイズインジェクション(AdaNI)機構を導入することで、年齢の精度を改善することに焦点を当てている。
このメカニズムは、与えられた人物の年齢や性別をテキスト状態として即座に記述することにより導かれる。
また、ノイズレベルを調整することで、顔の変形の柔軟性を高めつつ、老化の強度を制御できる。
しかし、アイデンティティの保存は、より強力な年齢変化を促進するために、ここでは弱く保証されている。
第2のパスでは、SVR-ArcFace と Rotate-CLIP の2つのID認識埋め込み(IDEmb)にモデルを条件付け、年齢特性を維持しながらアイデンティティの保存を向上する。
このパスは、変換された画像を第1のパスから復調することができ、老化精度を損なうことなく、より強力なアイデンティティ保存を確保できる。
両パスは、エンドツーエンドで共同で訓練される。
CelebA-HQテストデータセットに関する大規模な実験は、Face++とQwen-VLプロトコルを通じて評価され、私たちのCradle2Caneは、年齢の正確さとアイデンティティの整合性において、既存の顔の老化メソッドよりも優れています。
関連論文リスト
- DiffAge3D: Diffusion-based 3D-aware Face Aging [61.3027596093854]
本稿では,DiffAge3Dを提案する。DiffAge3Dは3D設定で忠実な老化とアイデンティティ保存を行う最初の3D対応高齢化フレームワークである。
我々のフレームワークは、トレーニング済みの3D GANを利用して、堅牢な3D対応老化データセット生成パイプラインを含む。
DiffAge3Dは既存の手法、特にマルチビューの老朽化や細部保存において優れることを示す。
論文 参考訳(メタデータ) (2024-08-28T16:36:09Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - Diverse and Lifespan Facial Age Transformation Synthesis with Identity Variation Rationality Metric [12.438204529412706]
人間の顔にディバース・ライフスパン・エイジ・トランスフォーメーションを実現するために、$rmDLATboldsymbol+$を導入する。
モデルに埋め込まれた多様性のメカニズムとは別に、複数の一貫性の制限が活用され、反ファクト的な老化合成を防ぐことができる。
論文 参考訳(メタデータ) (2024-01-25T09:26:08Z) - Pluralistic Aging Diffusion Autoencoder [63.50599304294062]
顔の老化は、複数のプラプシブルな老化パターンが与えられた入力に対応する可能性があるため、不適切な問題である。
本稿では,CLIP駆動型多言語時効拡散オートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-03-20T13:20:14Z) - A Unified Framework for Biphasic Facial Age Translation with
Noisy-Semantic Guided Generative Adversarial Networks [54.57520952117123]
バイファシックな顔の年齢変換は、任意の年齢における入力顔の出現を予測することを目的としている。
本稿では,ノイズ・セマンティック誘導合成対向ネットワークを用いた二相性顔面年齢変換のための統一的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-15T15:30:35Z) - When Age-Invariant Face Recognition Meets Face Age Synthesis: A
Multi-Task Learning Framework [20.579282497730944]
MTLFaceは、顔合成を楽しみながら、年齢不変のアイデンティティ関連表現を学習することができる。
グループレベルのfasを実現する従来のone-hotエンコーディングとは対照的に,アイデンティティレベルfasを実現するための新しいid条件モジュールを提案する。
5つのベンチマーククロスエイジデータセットに対する大規模な実験は、提案したMTLFaceの優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-02T07:03:27Z) - Continuous Face Aging Generative Adversarial Networks [11.75204350455584]
顔の老化は、入力画像の顔を指定された年齢に翻訳することを目的としたタスクです。
それまでの方法は、それぞれが10年からなる離散年齢群を生成できるだけに限られていた。
CFA-GAN (Continuous face aging generative adversarial Network) を提案する。
論文 参考訳(メタデータ) (2021-02-26T06:22:25Z) - PFA-GAN: Progressive Face Aging with Generative Adversarial Network [19.45760984401544]
本論文では,PFA-GANを基盤とした新しい顔老化フレームワークを提案する。
このフレームワークは、蓄積されたアーティファクトと曖昧さを取り除くために、エンドツーエンドでトレーニングすることができる。
実験により,既存の (c) GANs 法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-07T05:45:13Z) - Age Gap Reducer-GAN for Recognizing Age-Separated Faces [72.26969872180841]
本稿では,年齢変化に伴う顔と時間変化をマッチングする新しいアルゴリズムを提案する。
提案手法は,顔の年齢推定と年齢別顔の検証を組み合わせた統合フレームワークである。
論文 参考訳(メタデータ) (2020-11-11T16:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。