論文の概要: StylePeople: A Generative Model of Fullbody Human Avatars
- arxiv url: http://arxiv.org/abs/2104.08363v1
- Date: Fri, 16 Apr 2021 20:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:59:50.831607
- Title: StylePeople: A Generative Model of Fullbody Human Avatars
- Title(参考訳): StylePeople: 完全な人間のアバターの生成モデル
- Authors: Artur Grigorev, Karim Iskakov, Anastasia Ianina, Renat Bashirov, Ilya
Zakharkin, Alexander Vakhitov, Victor Lempitsky
- Abstract要約: パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
このようなアバターは衣服や髪型をうまくモデル化できるため、メッシュベースのアプローチでは問題となる。
そこで我々は,画像や映像のデータセットから学習できるアバターの生成モデルを提案する。
- 参考スコア(独自算出の注目度): 59.42166744151461
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a new type of full-body human avatars, which combines parametric
mesh-based body model with a neural texture. We show that with the help of
neural textures, such avatars can successfully model clothing and hair, which
usually poses a problem for mesh-based approaches. We also show how these
avatars can be created from multiple frames of a video using backpropagation.
We then propose a generative model for such avatars that can be trained from
datasets of images and videos of people. The generative model allows us to
sample random avatars as well as to create dressed avatars of people from one
or few images. The code for the project is available at
saic-violet.github.io/style-people.
- Abstract(参考訳): パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
神経テクスチャの助けを借りて,そのようなアバターは衣服や髪型をうまくモデル化できることを示し,メッシュベースのアプローチでは問題となる。
また、バックプロパゲーションを用いて、ビデオの複数のフレームからこれらのアバターを作成できることを示す。
次に、人の画像やビデオのデータセットからトレーニングできるアバターの生成モデルを提案する。
生成モデルは、ランダムなアバターをサンプリングし、1つか数つの画像から人々の服装アバターを作成することができます。
プロジェクトのコードはsaic-violet.github.io/style peopleで入手できる。
関連論文リスト
- GenCA: A Text-conditioned Generative Model for Realistic and Drivable Codec Avatars [44.8290935585746]
フォトリアリスティックでコントロール可能な3Dアバターは、バーチャルリアリティー(VR/MR)、テレプレゼンス、ゲーム、映画制作など、様々な用途に欠かせない。
アバター作成の伝統的な方法は、しばしば各アバターのスキャンと再構築に時間を要する。
本稿では,多彩なアイデンティティを持つ写真リアルな顔アバターを生成可能なテキスト条件生成モデルを提案する。
論文 参考訳(メタデータ) (2024-08-24T21:25:22Z) - WildAvatar: Web-scale In-the-wild Video Dataset for 3D Avatar Creation [55.85887047136534]
WildAvatar(ワイルドアバター)は、YouTubeから抽出されたウェブスケールの人間のアバター生成データセットである。
我々は,アバター作成における現実のアプリケーションにおける未探索課題を,データセット上でいくつかの最先端アバター作成手法を評価した。
論文 参考訳(メタデータ) (2024-07-02T11:17:48Z) - AvatarStudio: High-fidelity and Animatable 3D Avatar Creation from Text [71.09533176800707]
アバターストゥディオ(AvatarStudio)は、アニマタブルな人間のアバターのために、明瞭なテクスチャ化された3Dメッシュを生成する粗大で微細な生成モデルである。
調音メッシュ表現とDensePose条件拡散モデルとの相乗効果を効果的に活用することにより、AvatarStudioは高品質なアバターを作成することができる。
論文 参考訳(メタデータ) (2023-11-29T18:59:32Z) - Animatable and Relightable Gaussians for High-fidelity Human Avatar Modeling [47.1427140235414]
強力な2次元CNNと3次元ガウススプラッティングを活用して高忠実度アバターを作成する新しいアバター表現を提案する。
我々の手法は、動的で現実的で、一般化され、楽しく見えるアバターを作ることができる。
論文 参考訳(メタデータ) (2023-11-27T18:59:04Z) - Tag-Based Annotation for Avatar Face Creation [2.498487539723264]
タグベースのアノテーションを用いて人間の画像からアバターを生成するモデルを訓練する。
我々の貢献は、アバターの顔生成のためのモデルを訓練するためのタグベースのアノテーションの応用である。
論文 参考訳(メタデータ) (2023-08-24T08:35:12Z) - AvatarFusion: Zero-shot Generation of Clothing-Decoupled 3D Avatars
Using 2D Diffusion [34.609403685504944]
ゼロショットテキスト-アバター生成のためのフレームワークであるAvatarFusionを提案する。
我々は遅延拡散モデルを用いて、人間の現実的なアバターを生成するためのピクセルレベルのガイダンスを提供する。
また,身体と衣服の生成を意味的に分離する新たな最適化手法である,PS-DS(Pixel-Semantics Difference-Sampling)を導入する。
論文 参考訳(メタデータ) (2023-07-13T02:19:56Z) - AvatarCraft: Transforming Text into Neural Human Avatars with
Parameterized Shape and Pose Control [38.959851274747145]
アバタークラフト(AvatarCraft)は、3Dの人間のアバターを作る方法である。
拡散モデルを用いて1つのテキストプロンプトに基づく神経アバターの幾何学とテクスチャの学習を導く。
我々は、暗黙の場を明示的なワープフィールドで変形させることにより、人間のアバターをアニマタブルにする。
論文 参考訳(メタデータ) (2023-03-30T17:59:59Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。