論文の概要: PEGASUS: Personalized Generative 3D Avatars with Composable Attributes
- arxiv url: http://arxiv.org/abs/2402.10636v2
- Date: Tue, 2 Apr 2024 10:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 08:39:34.240815
- Title: PEGASUS: Personalized Generative 3D Avatars with Composable Attributes
- Title(参考訳): PEGASUS: 構成可能な属性を持つパーソナライズされた3Dアバター
- Authors: Hyunsoo Cha, Byungjun Kim, Hanbyul Joo,
- Abstract要約: 本稿では,モノクロ映像からパーソナライズされた3次元顔アバターを構築する方法を提案する。
提案手法は,合成データベース生成とパーソナライズされた生成アバターの構築の2段階からなる。
- 参考スコア(独自算出の注目度): 9.493003322829718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present PEGASUS, a method for constructing a personalized generative 3D face avatar from monocular video sources. Our generative 3D avatar enables disentangled controls to selectively alter the facial attributes (e.g., hair or nose) while preserving the identity. Our approach consists of two stages: synthetic database generation and constructing a personalized generative avatar. We generate a synthetic video collection of the target identity with varying facial attributes, where the videos are synthesized by borrowing the attributes from monocular videos of diverse identities. Then, we build a person-specific generative 3D avatar that can modify its attributes continuously while preserving its identity. Through extensive experiments, we demonstrate that our method of generating a synthetic database and creating a 3D generative avatar is the most effective in preserving identity while achieving high realism. Subsequently, we introduce a zero-shot approach to achieve the same goal of generative modeling more efficiently by leveraging a previously constructed personalized generative model.
- Abstract(参考訳): PEGASUSはモノクロビデオソースからパーソナライズされた3次元顔アバターを構築する方法である。
生成した3Dアバターは、不整合制御により、顔の特徴(例えば、髪、鼻など)を識別を保ちながら選択的に変化させることができる。
提案手法は,合成データベース生成とパーソナライズされた生成アバターの構築の2段階からなる。
顔の属性が異なる対象のアイデンティティの合成ビデオコレクションを生成し、そのビデオは多様なアイデンティティのモノラルビデオから属性を借りて合成する。
そして,個人固有の3Dアバターを構築し,その属性を連続的に修正し,そのアイデンティティを保ったまま保存する。
広範にわたる実験により, 合成データベースの作成と3次元生成アバターの作成が, 高いリアリズムを達成しつつ, アイデンティティの保存に最も有効であることが実証された。
続いて、以前に構築されたパーソナライズされた生成モデルを利用して、より効率的に生成モデルを構築するという同じ目的を達成するため、ゼロショットアプローチを導入する。
関連論文リスト
- GenCA: A Text-conditioned Generative Model for Realistic and Drivable Codec Avatars [44.8290935585746]
フォトリアリスティックでコントロール可能な3Dアバターは、バーチャルリアリティー(VR/MR)、テレプレゼンス、ゲーム、映画制作など、様々な用途に欠かせない。
アバター作成の伝統的な方法は、しばしば各アバターのスキャンと再構築に時間を要する。
本稿では,多彩なアイデンティティを持つ写真リアルな顔アバターを生成可能なテキスト条件生成モデルを提案する。
論文 参考訳(メタデータ) (2024-08-24T21:25:22Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - DivAvatar: Diverse 3D Avatar Generation with a Single Prompt [95.9978722953278]
DivAvatarは、単一のテキストプロンプトから多様なアバターを生成するフレームワークである。
生成の多様性と視覚的品質を達成するための2つの重要な設計がある。
大規模な実験により、ディヴァバターは様々な外観のアバターを生成するのに非常に多用途であることが示されている。
論文 参考訳(メタデータ) (2024-02-27T08:10:31Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - AttriHuman-3D: Editable 3D Human Avatar Generation with Attribute
Decomposition and Indexing [79.38471599977011]
編集可能な3次元人体生成モデルであるAttriHuman-3Dを提案する。
属性空間全体のすべての属性を生成し、6つの特徴平面を分解し、異なる属性インデックスで操作する。
我々のモデルは、異なる属性間の強い絡み合いを提供し、きめ細かい画像編集を可能にし、高品質な3Dアバターを生成する。
論文 参考訳(メタデータ) (2023-12-03T03:20:10Z) - AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation [14.062402203105712]
AvatarBoothはテキストプロンプトや特定の画像を使って高品質な3Dアバターを生成する新しい方法である。
我々の重要な貢献は、二重微調整拡散モデルを用いた正確なアバター生成制御である。
本稿では,3次元アバター生成の粗大な監視を容易にするマルチレゾリューションレンダリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T14:18:51Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。