論文の概要: EfficientDreamer: High-Fidelity and Robust 3D Creation via
Orthogonal-view Diffusion Prior
- arxiv url: http://arxiv.org/abs/2308.13223v1
- Date: Fri, 25 Aug 2023 07:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:53:28.619567
- Title: EfficientDreamer: High-Fidelity and Robust 3D Creation via
Orthogonal-view Diffusion Prior
- Title(参考訳): EfficientDreamer:Orthogonal-view Diffusion Priorによる高忠実度・ロバスト3次元創製
- Authors: Minda Zhao, Chaoyi Zhao, Xinyue Liang, Lincheng Li, Zeng Zhao, Zhipeng
Hu, Changjie Fan, Xin Yu
- Abstract要約: 与えられたテキストプロンプトに対して4つのサブイメージからなる画像を生成する2次元拡散モデルを提案する。
3Dコンテンツはこの拡散モデルで作成され、3D一貫性を高め、強力な構造化されたセマンティック先行を提供する。
生成した3Dコンテンツの品質を大幅に向上させる,プログレッシブな3D合成戦略を採用している。
- 参考スコア(独自算出の注目度): 45.43710135562116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the image diffusion model has made significant strides in text-driven
3D content creation, it often falls short in accurately capturing the intended
meaning of the text prompt, particularly with respect to direction information.
This shortcoming gives rise to the Janus problem, where multi-faced 3D models
are produced with the guidance of such diffusion models. In this paper, we
present a robust pipeline for generating high-fidelity 3D content with
orthogonal-view image guidance. Specifically, we introduce a novel 2D diffusion
model that generates an image consisting of four orthogonal-view sub-images for
the given text prompt. The 3D content is then created with this diffusion
model, which enhances 3D consistency and provides strong structured semantic
priors. This addresses the infamous Janus problem and significantly promotes
generation efficiency. Additionally, we employ a progressive 3D synthesis
strategy that results in substantial improvement in the quality of the created
3D contents. Both quantitative and qualitative evaluations show that our method
demonstrates a significant improvement over previous text-to-3D techniques.
- Abstract(参考訳): 画像拡散モデルは、テキスト駆動3dコンテンツ作成において大きな進歩を遂げているが、特に方向情報に関して、テキストプロンプトの意図する意味を正確に捉えることは困難である。
この欠点はJanus問題を引き起こし、そのような拡散モデルのガイダンスによって多面3Dモデルが生成される。
本稿では,高忠実度3Dコンテンツを生成するための高機能パイプラインを提案する。
具体的には,与えられたテキストプロンプトに対して4つの直交ビューサブイメージからなる画像を生成する,新しい2次元拡散モデルを提案する。
3Dコンテンツはこの拡散モデルで作成され、3D一貫性を高め、強力な構造化されたセマンティック先行を提供する。
これは悪名高いヤヌス問題に対処し、世代効率を著しく向上させる。
さらに,プログレッシブな3D合成戦略を採用し,生成した3Dコンテンツの品質を大幅に向上させる。
定量的および定性的な評価は,従来のテキスト・ツー・3D技術よりも大幅に改善されていることを示す。
関連論文リスト
- Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - PI3D: Efficient Text-to-3D Generation with Pseudo-Image Diffusion [18.82883336156591]
本稿では,テキストプロンプトから高品質な3D形状を数分で生成する,事前学習されたテキスト・画像拡散モデルの能力をフル活用するフレームワークPI3Dを提案する。
PI3Dはテキストからわずか3分で1つの3D形状を生成し、その品質は既存の3D生成モデルよりも大きなマージンで優れていることが検証される。
論文 参考訳(メタデータ) (2023-12-14T16:04:34Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - X-Dreamer: Creating High-quality 3D Content by Bridging the Domain Gap Between Text-to-2D and Text-to-3D Generation [61.48050470095969]
X-Dreamerは高品質なテキストから3Dコンテンツを作成するための新しいアプローチである。
テキスト対2D合成とテキスト対3D合成のギャップを埋める。
論文 参考訳(メタデータ) (2023-11-30T07:23:00Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - TextMesh: Generation of Realistic 3D Meshes From Text Prompts [56.2832907275291]
リアルな3Dメッシュを生成するための新しい手法を提案する。
この目的のために、NeRFをSDFバックボーンに拡張し、3Dメッシュ抽出を改善した。
論文 参考訳(メタデータ) (2023-04-24T20:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。