論文の概要: DreamCraft3D++: Efficient Hierarchical 3D Generation with Multi-Plane Reconstruction Model
- arxiv url: http://arxiv.org/abs/2410.12928v1
- Date: Wed, 16 Oct 2024 18:14:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:19:51.695606
- Title: DreamCraft3D++: Efficient Hierarchical 3D Generation with Multi-Plane Reconstruction Model
- Title(参考訳): DreamCraft3D++: 複数平面再構成モデルによる効率的な階層型3D生成
- Authors: Jingxiang Sun, Cheng Peng, Ruizhi Shao, Yuan-Chen Guo, Xiaochen Zhao, Yangguang Li, Yanpei Cao, Bo Zhang, Yebin Liu,
- Abstract要約: 我々はDreamCraft3Dの拡張機能であるDreamCraft3D++を紹介し、複雑な3Dアセットの効率的な高品質な生成を可能にする。
多様なデータセットの実験は、DreamCraft3D++が複雑な幾何学とリアルな360度テクスチャで創造的な3Dアセットを生成する能力を示している。
- 参考スコア(独自算出の注目度): 42.31167215804263
- License:
- Abstract: We introduce DreamCraft3D++, an extension of DreamCraft3D that enables efficient high-quality generation of complex 3D assets. DreamCraft3D++ inherits the multi-stage generation process of DreamCraft3D, but replaces the time-consuming geometry sculpting optimization with a feed-forward multi-plane based reconstruction model, speeding up the process by 1000x. For texture refinement, we propose a training-free IP-Adapter module that is conditioned on the enhanced multi-view images to enhance texture and geometry consistency, providing a 4x faster alternative to DreamCraft3D's DreamBooth fine-tuning. Experiments on diverse datasets demonstrate DreamCraft3D++'s ability to generate creative 3D assets with intricate geometry and realistic 360{\deg} textures, outperforming state-of-the-art image-to-3D methods in quality and speed. The full implementation will be open-sourced to enable new possibilities in 3D content creation.
- Abstract(参考訳): 我々はDreamCraft3Dの拡張機能であるDreamCraft3D++を紹介し、複雑な3Dアセットの効率的な高品質な生成を可能にする。
DreamCraft3D++はDreamCraft3Dのマルチステージ生成プロセスを継承するが、時間を要する幾何学的彫刻の最適化をフィードフォワードのマルチプレーンベースの再構築モデルに置き換え、プロセスを1000倍高速化する。
テクスチャ改善のためのトレーニング不要なIP-Adapterモジュールを提案する。このモジュールは,テクスチャとテクスチャの整合性を向上し,DreamCraft3DのDreamBoothファインタニングの4倍高速な代替手段を提供する。
多様なデータセットの実験は、DreamCraft3D++が複雑な幾何学とリアルな360{\deg}テクスチャで創造的な3Dアセットを生成する能力を示し、品質とスピードで最先端の画像-3Dメソッドより優れています。
完全な実装はオープンソースとして公開され、3Dコンテンツ作成の新たな可能性を実現する。
関連論文リスト
- Meta 3D Gen [57.313835190702484]
3DGenは、3Dアセットを作成でき、高速な忠実さと高品質な3D形状とテクスチャを1分以内で提供する。
3DGenは、現実世界のアプリケーションで3Dアセットのリライトに必要な物理ベースのレンダリング(PBR)をサポートする。
論文 参考訳(メタデータ) (2024-07-02T18:37:52Z) - CLAY: A Controllable Large-scale Generative Model for Creating High-quality 3D Assets [43.315487682462845]
CLAYは、人間の想像力を複雑な3Dデジタル構造に変換するために設計された3D幾何学および材料生成装置である。
中心となるのは、多解像度変分オートエンコーダ(VAE)と最小遅延拡散変換器(DiT)からなる大規模生成モデルである。
我々はCLAYを、スケッチ的な概念設計から複雑な詳細を持つ生産可能な資産まで、様々な制御可能な3Dアセット作成に活用することを実証する。
論文 参考訳(メタデータ) (2024-05-30T05:57:36Z) - CAT3D: Create Anything in 3D with Multi-View Diffusion Models [87.80820708758317]
CAT3D(CAT3D)は,この実世界のキャプチャプロセスを多視点拡散モデルでシミュレートし,任意のものを3Dで作成する手法である。
CAT3Dは1分で3Dシーン全体を作成できる。
論文 参考訳(メタデータ) (2024-05-16T17:59:05Z) - HyperDreamer: Hyper-Realistic 3D Content Generation and Editing from a
Single Image [94.11473240505534]
一つの画像から3Dコンテンツを作成するためのツールであるHyperDreamerを紹介します。
ユーザーは、結果の3Dコンテンツをフル範囲から閲覧、レンダリング、編集できないため、ポストジェネレーションの使用には十分である。
高分解能なテクスチャとユーザフレンドリーな編集が可能な領域認識素材のモデリングにおけるHyperDreamerの有効性を実証する。
論文 参考訳(メタデータ) (2023-12-07T18:58:09Z) - DMV3D: Denoising Multi-View Diffusion using 3D Large Reconstruction
Model [86.37536249046943]
textbfDMV3Dはトランスフォーマーに基づく3次元大規模再構成モデルを用いた新しい3D生成手法である。
再構成モデルでは, 3面のNeRF表現を組み込んで, ノイズの多い多視点画像をNeRF再構成とレンダリングで識別することができる。
論文 参考訳(メタデータ) (2023-11-15T18:58:41Z) - DreamCraft3D: Hierarchical 3D Generation with Bootstrapped Diffusion
Prior [40.67100127167502]
本稿では,高忠実でコヒーレントな3Dオブジェクトを生成する階層型3Dコンテンツ生成手法であるDreamCraft3Dを提案する。
幾何学的彫刻とテクスチャ強化の段階をガイドするために, 2次元参照画像を活用することで, この問題に対処する。
階層的な世代を通して調整された3Dプリエントにより、DreamCraft3Dはフォトリアリスティックなレンダリングを備えたコヒーレントな3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-10-25T17:50:10Z) - Fantasia3D: Disentangling Geometry and Appearance for High-quality
Text-to-3D Content Creation [45.69270771487455]
本稿では,高品質なテキスト・ツー・3Dコンテンツ作成のためのFantasia3Dの新たな手法を提案する。
Fantasia3Dの鍵となるのは、幾何学と外観の混乱したモデリングと学習である。
我々のフレームワークは、人気のあるグラフィックスエンジンとより互換性があり、生成した3Dアセットのリライティング、編集、物理シミュレーションをサポートしています。
論文 参考訳(メタデータ) (2023-03-24T09:30:09Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。