論文の概要: Gen-AFFECT: Generation of Avatar Fine-grained Facial Expressions with Consistent identiTy
- arxiv url: http://arxiv.org/abs/2508.09461v1
- Date: Wed, 13 Aug 2025 03:35:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.744337
- Title: Gen-AFFECT: Generation of Avatar Fine-grained Facial Expressions with Consistent identiTy
- Title(参考訳): Gen-AFFECT: Consistent identiTyを用いたアバターファイングラニュアル表情の生成
- Authors: Hao Yu, Rupayan Mallick, Margrit Betke, Sarah Adel Bargal,
- Abstract要約: GEN-AFFECTはパーソナライズされたアバター生成のための新しいフレームワークである。
表情の多様なセットを持つ表現的でアイデンティティに一貫性のあるアバターを生成する。
- 参考スコア(独自算出の注目度): 15.26953477181137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Different forms of customized 2D avatars are widely used in gaming applications, virtual communication, education, and content creation. However, existing approaches often fail to capture fine-grained facial expressions and struggle to preserve identity across different expressions. We propose GEN-AFFECT, a novel framework for personalized avatar generation that generates expressive and identity-consistent avatars with a diverse set of facial expressions. Our framework proposes conditioning a multimodal diffusion transformer on an extracted identity-expression representation. This enables identity preservation and representation of a wide range of facial expressions. GEN-AFFECT additionally employs consistent attention at inference for information sharing across the set of generated expressions, enabling the generation process to maintain identity consistency over the array of generated fine-grained expressions. GEN-AFFECT demonstrates superior performance compared to previous state-of-the-art methods on the basis of the accuracy of the generated expressions, the preservation of the identity and the consistency of the target identity across an array of fine-grained facial expressions.
- Abstract(参考訳): カスタマイズされた2Dアバターはゲームアプリケーション、仮想コミュニケーション、教育、コンテンツ制作などで広く使われている。
しかし、既存のアプローチは、細かい表情を捉えることができず、異なる表現をまたいだアイデンティティを維持するのに苦労することが多い。
本稿では,多種多様な表情を持つ表現的かつアイデンティティに一貫性のあるアバターを生成する,パーソナライズされたアバター生成のための新しいフレームワークであるGEN-AFFECTを提案する。
本フレームワークは,抽出したID-表現表現にマルチモーダル拡散変換器を条件付けすることを提案する。
これにより、幅広い表情のアイデンティティの保存と表現が可能になる。
GEN-AFFECTはまた、生成した表現の集合をまたいだ情報共有の推論に一貫した注意を払っており、生成プロセスは生成された細粒度の表現の配列上でアイデンティティの一貫性を維持することができる。
gen-AFFECTは、生成した表現の精度、アイデンティティの保存、ターゲットアイデンティティの一貫性に基づいて、一連のきめ細かい表情の配列に対して、従来の最先端手法と比較して、優れた性能を示す。
関連論文リスト
- EmojiDiff: Advanced Facial Expression Control with High Identity Preservation in Portrait Generation [8.314556078632412]
ポートレート生成における極めて詳細な表現(RGBレベル)と高忠実度IDの同時制御を可能にする,最初のエンドツーエンドソリューションであるEmojiDiffを紹介する。
分離学習では、ID非関連データイテレーション(IDI)を改良し、相互同一性表現ペアを合成する。
また,さらに微調整を行うために,ID強化コントラストアライメント(ICA)を提案する。
論文 参考訳(メタデータ) (2024-12-02T08:24:11Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - ConsistentID: Portrait Generation with Multimodal Fine-Grained Identity Preserving [64.90148669690228]
ConsistentIDは、微細なマルチモーダル顔のプロンプト下での多彩な画像生成のための革新的な手法である。
我々は、50万以上の顔画像を持つ、きめ細かいポートレートデータセットFGIDを提示し、既存の顔データセットよりも多様性と包括性を提供する。
論文 参考訳(メタデータ) (2024-04-25T17:23:43Z) - IDAdapter: Learning Mixed Features for Tuning-Free Personalization of Text-to-Image Models [31.762112403595612]
IDAdapterは、単一の顔画像からパーソナライズされた画像生成における多様性とアイデンティティの保存を強化する、チューニング不要なアプローチである。
トレーニング期間中、特定のアイデンティティの複数の参照画像から混合した特徴を取り入れ、アイデンティティ関連コンテンツの詳細を充実させる。
論文 参考訳(メタデータ) (2024-03-20T12:13:04Z) - Towards a Simultaneous and Granular Identity-Expression Control in Personalized Face Generation [34.72612800373437]
人間中心のコンテンツ生成では、事前訓練されたテキスト・ツー・イメージモデルでは、ユーザーが望んだポートレート画像を生成するのに苦労する。
同一性表現の同時制御とよりきめ細かい表現合成が可能な,新しい多モード顔生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-02T13:28:39Z) - PortraitBooth: A Versatile Portrait Model for Fast Identity-preserved
Personalization [92.90392834835751]
PortraitBoothは高効率、堅牢なID保存、表現編集可能な画像生成のために設計されている。
PortraitBoothは計算オーバーヘッドを排除し、アイデンティティの歪みを軽減する。
生成した画像の多様な表情に対する感情認識のクロスアテンション制御が組み込まれている。
論文 参考訳(メタデータ) (2023-12-11T13:03:29Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Explore the Expression: Facial Expression Generation using Auxiliary
Classifier Generative Adversarial Network [0.0]
本稿では,複数の文字識別のための表情の集合を頑健に生成する生成モデルアーキテクチャを提案する。
簡単な表現を組み合わせることで複雑な表現を生成する可能性について検討する。
論文 参考訳(メタデータ) (2022-01-22T14:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。