論文の概要: Progressive3D: Progressively Local Editing for Text-to-3D Content
Creation with Complex Semantic Prompts
- arxiv url: http://arxiv.org/abs/2310.11784v1
- Date: Wed, 18 Oct 2023 08:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 17:29:46.488661
- Title: Progressive3D: Progressively Local Editing for Text-to-3D Content
Creation with Complex Semantic Prompts
- Title(参考訳): Progressive3D:複雑なセマンティックプロンプトによるテキストから3Dコンテンツ作成のためのプログレッシブローカル編集
- Authors: Xinhua Cheng, Tianyu Yang, Jianan Wang, Yu Li, Lei Zhang, Jian Zhang,
Li Yuan
- Abstract要約: 本稿では,プログレッシブ3D(Progressive3D)というフレームワークを提案する。
編集ステップ毎にユーザ定義領域プロンプトによって決定される領域にのみコンテンツ変更が発生することを制約する。
大規模な実験により,提案するプログレッシブ3Dフレームワークが複雑な意味論を持つプロンプトに対して正確な3Dコンテンツを生成することが示された。
- 参考スコア(独自算出の注目度): 40.89582125651795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent text-to-3D generation methods achieve impressive 3D content creation
capacity thanks to the advances in image diffusion models and optimizing
strategies. However, current methods struggle to generate correct 3D content
for a complex prompt in semantics, i.e., a prompt describing multiple
interacted objects binding with different attributes. In this work, we propose
a general framework named Progressive3D, which decomposes the entire generation
into a series of locally progressive editing steps to create precise 3D content
for complex prompts, and we constrain the content change to only occur in
regions determined by user-defined region prompts in each editing step.
Furthermore, we propose an overlapped semantic component suppression technique
to encourage the optimization process to focus more on the semantic differences
between prompts. Extensive experiments demonstrate that the proposed
Progressive3D framework generates precise 3D content for prompts with complex
semantics and is general for various text-to-3D methods driven by different 3D
representations.
- Abstract(参考訳): 最近のテキスト3d生成手法は,画像拡散モデルと最適化戦略の進歩により,印象的な3dコンテンツ作成能力を実現している。
しかし、現在の手法は、セマンティックスにおける複雑なプロンプト、すなわち異なる属性で結合された複数の相互作用オブジェクトを記述するプロンプトに対して正しい3Dコンテンツを生成するのに苦労している。
本稿では,プログレッシブ3d(progressive3d)という汎用フレームワークを提案し,複雑なプロンプトのための正確な3dコンテンツを作成するために,世代全体を一連の局所的なプログレッシブ編集ステップに分解する。
さらに,最適化プロセスにおいて,プロンプト間の意味的差異をより強調するために,重複した意味成分抑制手法を提案する。
広汎な実験により,提案するプログレッシブ3Dフレームワークは複雑なセマンティクスを持つプロンプトに対して正確な3Dコンテンツを生成し,異なる3D表現によって駆動される様々なテキストから3Dメソッドに対して一般的であることが示された。
関連論文リスト
- Semantic Score Distillation Sampling for Compositional Text-to-3D Generation [28.88237230872795]
テキスト記述から高品質な3Dアセットを生成することは、コンピュータグラフィックスと視覚研究において重要な課題である。
本稿では,合成テキストから3D生成までの表現性と精度の向上を目的とした新しいSDS手法を提案する。
我々のアプローチは、異なるレンダリングビュー間の一貫性を維持する新しいセマンティック埋め込みを統合する。
明示的な意味指導を活用することで,既存の事前学習拡散モデルの構成能力を解き放つ。
論文 参考訳(メタデータ) (2024-10-11T17:26:00Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - TeMO: Towards Text-Driven 3D Stylization for Multi-Object Meshes [67.5351491691866]
我々は,多目的3Dシーンを解析し,そのスタイルを編集する,TeMOと呼ばれる新しいフレームワークを提案する。
提案手法は,高品質なスタイリングコンテンツを合成し,多目的3Dメッシュで既存手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-12-07T12:10:05Z) - ATT3D: Amortized Text-to-3D Object Synthesis [78.96673650638365]
我々は、個別にではなく、統一されたモデルと同時に多くのプロンプトをトレーニングすることで、テキストプロンプトに対する最適化を保留する。
我々のフレームワークであるAmortized text-to-3D (ATT3D)は、プロンプト間の知識共有を可能にし、未知のセットアップに一般化し、新しいアセットのためのテキストと単純なアニメーション間のスムーズなスムーズさを実現する。
論文 参考訳(メタデータ) (2023-06-06T17:59:10Z) - TAPS3D: Text-Guided 3D Textured Shape Generation from Pseudo Supervision [114.56048848216254]
テキスト誘導型3次元形状生成器を疑似キャプションで訓練するための新しいフレームワークTAPS3Dを提案する。
レンダリングされた2D画像に基づいて,CLIP語彙から関連する単語を検索し,テンプレートを用いて擬似キャプションを構築する。
構築したキャプションは、生成された3次元形状の高レベルなセマンティック管理を提供する。
論文 参考訳(メタデータ) (2023-03-23T13:53:16Z) - Compositional 3D Scene Generation using Locally Conditioned Diffusion [49.5784841881488]
合成シーン拡散へのアプローチとして,テクスブフォローカライズ条件付き拡散を導入する。
本研究では, スコア蒸留によるテキスト・ツー・3D合成パイプラインを試作し, 関連するベースラインよりも高忠実度で合成3Dシーンを生成できることを示した。
論文 参考訳(メタデータ) (2023-03-21T22:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。