論文の概要: Progressive Text-to-3D Generation for Automatic 3D Prototyping
- arxiv url: http://arxiv.org/abs/2309.14600v1
- Date: Tue, 26 Sep 2023 01:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 15:14:44.636013
- Title: Progressive Text-to-3D Generation for Automatic 3D Prototyping
- Title(参考訳): 自動3dプロトタイピングのためのプログレッシブテキストから3d生成
- Authors: Han Yi, Zhedong Zheng, Xiangyu Xu and Tat-seng Chua
- Abstract要約: 本稿では,MTN(Multi-Scale Triplane Network)と新たなプログレッシブラーニング戦略を提案する。
本実験では,提案手法が既存手法に対して良好に動作することを確認した。
自然言語記述による自動3Dプロトタイピングの道を開くことを目指しています。
- 参考スコア(独自算出の注目度): 83.33407603057618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-3D generation is to craft a 3D object according to a natural language
description. This can significantly reduce the workload for manually designing
3D models and provide a more natural way of interaction for users. However,
this problem remains challenging in recovering the fine-grained details
effectively and optimizing a large-size 3D output efficiently. Inspired by the
success of progressive learning, we propose a Multi-Scale Triplane Network
(MTN) and a new progressive learning strategy. As the name implies, the
Multi-Scale Triplane Network consists of four triplanes transitioning from low
to high resolution. The low-resolution triplane could serve as an initial shape
for the high-resolution ones, easing the optimization difficulty. To further
enable the fine-grained details, we also introduce the progressive learning
strategy, which explicitly demands the network to shift its focus of attention
from simple coarse-grained patterns to difficult fine-grained patterns. Our
experiment verifies that the proposed method performs favorably against
existing methods. For even the most challenging descriptions, where most
existing methods struggle to produce a viable shape, our proposed method
consistently delivers. We aspire for our work to pave the way for automatic 3D
prototyping via natural language descriptions.
- Abstract(参考訳): テキストから3D生成は、自然言語の記述に従って3Dオブジェクトを作成することである。
これにより、3Dモデルを手動で設計する作業が大幅に削減され、ユーザにとってより自然なインタラクションが可能になる。
しかし,細粒度を効果的に回収し,大規模3d出力を効率的に最適化するには課題が残る。
進歩学習の成功に触発されて,マルチスケールトライプレーンネットワーク(MTN)と新しい進歩学習戦略を提案する。
名前の通り、マルチスケールのトライプレーンネットワークは4つのトライプレーンで構成され、低解像度から高解像度に遷移する。
低解像度のトライプレーンは、高分解能のトライプレーンの初期形状として機能し、最適化の困難さを和らげる。
さらに細粒度を極小にするためには、ネットワークに注意の焦点を単純な粗粒度パターンから難解な細粒度パターンにシフトさせるプログレッシブラーニング戦略も導入する。
提案手法が既存の手法に好適に作用することを検証した。
既存のほとんどのメソッドが実行可能な形状を作り出すのに苦労している最も難しい記述でさえ、提案手法は一貫して提供されます。
自然言語記述による自動3Dプロトタイピングの道を開くことを目指しています。
関連論文リスト
- VividDreamer: Towards High-Fidelity and Efficient Text-to-3D Generation [69.68568248073747]
拡散に基づく3次元生成タスクにおいて, ポーズ依存型連続蒸留サンプリング (PCDS) を提案する。
PCDSは拡散軌道内でポーズ依存整合関数を構築し、最小サンプリングステップで真の勾配を近似することができる。
そこで我々は,まず1ステップのPCDSを用いて3Dオブジェクトの基本構造を作成し,さらに徐々にPCDSのステップを拡大して細かな細部を生成する,粗大な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:21:52Z) - DiffTF++: 3D-aware Diffusion Transformer for Large-Vocabulary 3D Generation [53.20147419879056]
拡散型フィードフォワードフレームワークを導入し,単一モデルで課題に対処する。
TransFormerを用いた3D対応拡散モデルを構築し,より強力な3D生成,すなわちDiffTF++を提案する。
ShapeNetとOmniObject3Dの実験は、提案したモジュールの有効性を確実に実証している。
論文 参考訳(メタデータ) (2024-05-13T17:59:51Z) - LATTE3D: Large-scale Amortized Text-To-Enhanced3D Synthesis [76.43669909525488]
LATTE3Dは400msで3Dオブジェクトを生成し、高速なテストタイム最適化でさらに拡張することができる。
LATTE3Dを導入し、これらの制限に対処し、より大きなプロンプトセット上で高速で高品質な生成を実現する。
論文 参考訳(メタデータ) (2024-03-22T17:59:37Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - Instant3D: Instant Text-to-3D Generation [101.25562463919795]
Instant3Dと呼ばれる高速テキストから3D生成のための新しいフレームワークを提案する。
Instant3Dはフィードフォワードネットワークの単一実行で1秒未満で、目に見えないテキストプロンプトのための3Dオブジェクトを作成することができる。
論文 参考訳(メタデータ) (2023-11-14T18:59:59Z) - Efficient Text-Guided 3D-Aware Portrait Generation with Score
Distillation Sampling on Distribution [28.526714129927093]
本研究では,DreamPortraitを提案する。DreamPortraitは,テキスト誘導型3D画像の単一フォワードパスで効率よく作成することを目的としている。
さらに,テキストと3D認識空間の対応をモデルが明示的に知覚できるように,3D対応のゲート・アテンション機構を設計する。
論文 参考訳(メタデータ) (2023-06-03T11:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。