論文の概要: DreamHuman: Animatable 3D Avatars from Text
- arxiv url: http://arxiv.org/abs/2306.09329v1
- Date: Thu, 15 Jun 2023 17:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:04:07.260193
- Title: DreamHuman: Animatable 3D Avatars from Text
- Title(参考訳): DreamHuman:テキストから3Dアバターを作る
- Authors: Nikos Kolotouros, Thiemo Alldieck, Andrei Zanfir, Eduard Gabriel
Bazavan, Mihai Fieraru, Cristian Sminchisescu
- Abstract要約: 本研究では,テキスト記述のみから現実的な3次元アバターモデルを生成するDreamHumanを提案する。
我々の3Dモデルは、外観、衣服、肌のトーン、体形が多様であり、一般的なテキストから3Dへのアプローチと、以前のテキストベースの3Dアバタージェネレータを視覚的忠実度で大幅に上回っている。
- 参考スコア(独自算出の注目度): 41.30635787166307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DreamHuman, a method to generate realistic animatable 3D human
avatar models solely from textual descriptions. Recent text-to-3D methods have
made considerable strides in generation, but are still lacking in important
aspects. Control and often spatial resolution remain limited, existing methods
produce fixed rather than animated 3D human models, and anthropometric
consistency for complex structures like people remains a challenge. DreamHuman
connects large text-to-image synthesis models, neural radiance fields, and
statistical human body models in a novel modeling and optimization framework.
This makes it possible to generate dynamic 3D human avatars with high-quality
textures and learned, instance-specific, surface deformations. We demonstrate
that our method is capable to generate a wide variety of animatable, realistic
3D human models from text. Our 3D models have diverse appearance, clothing,
skin tones and body shapes, and significantly outperform both generic
text-to-3D approaches and previous text-based 3D avatar generators in visual
fidelity. For more results and animations please check our website at
https://dream-human.github.io.
- Abstract(参考訳): 本研究では,テキスト記述のみで現実的な3次元アバターモデルを生成するDreamHumanを提案する。
最近のtext-to-3dメソッドは、世代でかなりの進歩を遂げているが、重要な側面はまだ欠落している。
コントロールとしばしば空間分解能は限られており、既存の手法では3dのモデルではなく固定的なモデルを生成する。
dreamhumanは、新しいモデリングと最適化フレームワークで、大きなテキストから画像への合成モデル、神経放射野、統計人体モデルを結びつける。
これにより、高品質なテクスチャを持つダイナミックな3Dアバターを生成でき、例えば、表面の変形を学習することができる。
本手法は,テキストから多種多様なアニマタブルでリアルな3次元モデルを生成することができることを示す。
私たちの3dモデルは、外観、衣服、肌色、体形が多様で、一般的なテキストから3dへのアプローチと、以前のテキストベースの3dアバタージェネレータの視覚忠実度を大幅に上回っています。
さらなる結果とアニメーションについては、https://dream-human.github.io.comで確認してください。
関連論文リスト
- A Survey on 3D Human Avatar Modeling -- From Reconstruction to Generation [20.32107267981782]
多くの現実世界のアプリケーションの中核に位置する3Dヒューマンモデリングは、大きな注目を集めている。
本調査は,3次元アバターモデリングの新技術の概要を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-06T16:58:00Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。