論文の概要: Make-A-Character: High Quality Text-to-3D Character Generation within
Minutes
- arxiv url: http://arxiv.org/abs/2312.15430v1
- Date: Sun, 24 Dec 2023 08:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:02:49.851416
- Title: Make-A-Character: High Quality Text-to-3D Character Generation within
Minutes
- Title(参考訳): Make-A-Character: 数分で高品質なテキストから3D文字を生成する
- Authors: Jianqiang Ren, Chao He, Lin Liu, Jiahao Chen, Yutong Wang, Yafei Song,
Jianfang Li, Tangli Xue, Siqi Hu, Tao Chen, Kunkun Zheng, Jianjing Xiang,
Liefeng Bo
- Abstract要約: 本研究では,テキスト記述から3Dアバターを作成するために,Make-A-Character (Mach) というユーザフレンドリーなフレームワークを提案する。
制御可能で現実的で、完全に実現された3Dキャラクタを2分以内で作成するための直感的なアプローチを提供する。
- 参考スコア(独自算出の注目度): 28.30067870250642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a growing demand for customized and expressive 3D characters with
the emergence of AI agents and Metaverse, but creating 3D characters using
traditional computer graphics tools is a complex and time-consuming task. To
address these challenges, we propose a user-friendly framework named
Make-A-Character (Mach) to create lifelike 3D avatars from text descriptions.
The framework leverages the power of large language and vision models for
textual intention understanding and intermediate image generation, followed by
a series of human-oriented visual perception and 3D generation modules. Our
system offers an intuitive approach for users to craft controllable, realistic,
fully-realized 3D characters that meet their expectations within 2 minutes,
while also enabling easy integration with existing CG pipeline for dynamic
expressiveness. For more information, please visit the project page at
https://human3daigc.github.io/MACH/.
- Abstract(参考訳): aiエージェントやメタバースの出現とともに、カスタマイズされた表現力のある3dキャラクタに対する需要が高まっているが、従来のコンピュータグラフィックスツールを使った3dキャラクタの作成は複雑で時間のかかる作業である。
これらの課題に対処するため,テキスト記述から3Dアバターを作成するために,Mach-A-Character (Mach) というユーザフレンドリーなフレームワークを提案する。
このフレームワークは、テキストの意図理解と中間画像生成のために大きな言語とビジョンモデルの力を活用し、続いて一連の人間指向の視覚知覚と3d生成モジュールを使用する。
本システムでは,制御可能で現実的で,完全に実現された3Dキャラクタを2分以内で作成すると同時に,既存のCGパイプラインと動的表現性を容易に統合する。
詳細はプロジェクトページのhttps://human3daigc.github.io/MACH/を参照してください。
関連論文リスト
- IPDreamer: Appearance-Controllable 3D Object Generation with Image
Prompts [49.77322763142142]
本稿では,3次元オブジェクト生成のための具体的かつ包括的な外観情報を含む新しいアプローチであるIDDreamerを紹介する。
以上の結果から,IDDreamerは提供されたテキストと複雑な画像プロンプトの出現の両方に整合した高品質な3Dオブジェクトを効果的に生成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-09T03:11:08Z) - Towards High-Fidelity Text-Guided 3D Face Generation and Manipulation
Using only Images [105.92311979305065]
TG-3DFaceは、よりリアルで美的な3D顔を生成し、ラテント3Dよりも9%のマルチビュー一貫性(MVIC)を高めている。
TG-3DFaceによって生成された描画顔画像は、テキストから2Dの顔/画像生成モデルよりも高いFIDとCLIPスコアを達成する。
論文 参考訳(メタデータ) (2023-08-31T14:26:33Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - DreamHuman: Animatable 3D Avatars from Text [41.30635787166307]
本研究では,テキスト記述のみから現実的な3次元アバターモデルを生成するDreamHumanを提案する。
我々の3Dモデルは、外観、衣服、肌のトーン、体形が多様であり、一般的なテキストから3Dへのアプローチと、以前のテキストベースの3Dアバタージェネレータを視覚的忠実度で大幅に上回っている。
論文 参考訳(メタデータ) (2023-06-15T17:58:21Z) - CLIP-Guided Vision-Language Pre-training for Question Answering in 3D
Scenes [68.61199623705096]
我々は,モデルが意味論的かつ伝達可能な3Dシーンポイントクラウド表現を学習するのに役立つ,新しい3D事前学習型ビジョンランゲージを設計する。
符号化された3Dシーン特徴と対応する2D画像とテキスト埋め込みとを一致させることにより、人気のあるCLIPモデルの表現力を3Dエンコーダに注入する。
我々は,3次元視覚質問応答の下流課題に対して,我々のモデルによる3次元世界推論能力を評価する。
論文 参考訳(メタデータ) (2023-04-12T16:52:29Z) - AvatarCLIP: Zero-Shot Text-Driven Generation and Animation of 3D Avatars [37.43588165101838]
AvatarCLIPは、3Dアバター生成とアニメーションのためのゼロショットテキスト駆動フレームワークである。
我々は、強力な視覚言語モデルCLIPを利用して、ニューラル・ヒューマン・ジェネレーションを監督する。
動作VAEで得られた先行情報を活用することで,CLIP誘導参照ベースモーション合成法が生成した3Dアバターのアニメーションに対して提案される。
論文 参考訳(メタデータ) (2022-05-17T17:59:19Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。