論文の概要: PEGASUS: Personalized Generative 3D Avatars with Composable Attributes
- arxiv url: http://arxiv.org/abs/2402.10636v1
- Date: Fri, 16 Feb 2024 12:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:29:27.724275
- Title: PEGASUS: Personalized Generative 3D Avatars with Composable Attributes
- Title(参考訳): PEGASUS: 構成可能な属性を持つパーソナライズされた3Dアバター
- Authors: Hyunsoo Cha, Byungjun Kim, Hanbyul Joo
- Abstract要約: 本稿では,モノクロ映像ソースからパーソナライズされた3次元顔アバターを構築する方法を提案する。
合成生成モデルとして,対象者の顔の特徴を選択的に変化させる不整合制御が可能となる。
- 参考スコア(独自算出の注目度): 10.669184394762858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present, PEGASUS, a method for constructing personalized generative 3D
face avatars from monocular video sources. As a compositional generative model,
our model enables disentangled controls to selectively alter the facial
attributes (e.g., hair or nose) of the target individual, while preserving the
identity. We present two key approaches to achieve this goal. First, we present
a method to construct a person-specific generative 3D avatar by building a
synthetic video collection of the target identity with varying facial
attributes, where the videos are synthesized by borrowing parts from diverse
individuals from other monocular videos. Through several experiments, we
demonstrate the superior performance of our approach by generating unseen
attributes with high realism. Subsequently, we introduce a zero-shot approach
to achieve the same generative modeling more efficiently by leveraging a
previously constructed personalized generative model.
- Abstract(参考訳): PEGASUSはモノクロビデオソースからパーソナライズされた3次元顔アバターを構築する方法である。
構成生成モデルとして, 同一性を維持しつつ, 対象者の顔属性(例えば, 髪や鼻)を選択的に変化させることができる。
この目標を達成するための2つの重要なアプローチを示す。
まず, 顔属性の異なるターゲットアイデンティティの合成ビデオコレクションを構築し, 他の単眼映像から多様な個人からの部品を借用して映像を合成することで, 個人固有の生成的3dアバターを構築する方法を提案する。
いくつかの実験を通じて,高実性を持つ未知属性の生成により,このアプローチの優れた性能を示す。
次に,従来構築されていたパーソナライズされた生成モデルを活用して,同じ生成モデルをより効率的に実現するためのゼロショットアプローチを提案する。
関連論文リスト
- GenCA: A Text-conditioned Generative Model for Realistic and Drivable Codec Avatars [44.8290935585746]
フォトリアリスティックでコントロール可能な3Dアバターは、バーチャルリアリティー(VR/MR)、テレプレゼンス、ゲーム、映画制作など、様々な用途に欠かせない。
アバター作成の伝統的な方法は、しばしば各アバターのスキャンと再構築に時間を要する。
本稿では,多彩なアイデンティティを持つ写真リアルな顔アバターを生成可能なテキスト条件生成モデルを提案する。
論文 参考訳(メタデータ) (2024-08-24T21:25:22Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - DivAvatar: Diverse 3D Avatar Generation with a Single Prompt [95.9978722953278]
DivAvatarは、単一のテキストプロンプトから多様なアバターを生成するフレームワークである。
生成の多様性と視覚的品質を達成するための2つの重要な設計がある。
大規模な実験により、ディヴァバターは様々な外観のアバターを生成するのに非常に多用途であることが示されている。
論文 参考訳(メタデータ) (2024-02-27T08:10:31Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - AttriHuman-3D: Editable 3D Human Avatar Generation with Attribute
Decomposition and Indexing [79.38471599977011]
編集可能な3次元人体生成モデルであるAttriHuman-3Dを提案する。
属性空間全体のすべての属性を生成し、6つの特徴平面を分解し、異なる属性インデックスで操作する。
我々のモデルは、異なる属性間の強い絡み合いを提供し、きめ細かい画像編集を可能にし、高品質な3Dアバターを生成する。
論文 参考訳(メタデータ) (2023-12-03T03:20:10Z) - AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation [14.062402203105712]
AvatarBoothはテキストプロンプトや特定の画像を使って高品質な3Dアバターを生成する新しい方法である。
我々の重要な貢献は、二重微調整拡散モデルを用いた正確なアバター生成制御である。
本稿では,3次元アバター生成の粗大な監視を容易にするマルチレゾリューションレンダリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T14:18:51Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。