論文の概要: VPP: Efficient Conditional 3D Generation via Voxel-Point Progressive
Representation
- arxiv url: http://arxiv.org/abs/2307.16605v1
- Date: Fri, 28 Jul 2023 17:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 14:40:08.760352
- Title: VPP: Efficient Conditional 3D Generation via Voxel-Point Progressive
Representation
- Title(参考訳): VPP:Voxel-Pointプログレッシブ表現による効率的な条件付き3D生成
- Authors: Zekun Qi, Muzhou Yu, Runpei Dong, Kaisheng Ma
- Abstract要約: 条件付き3D生成は大きな進歩を遂げており、テキストや2D画像などの入力から3Dコンテンツを自由に作成することができる。
従来のアプローチでは、推論効率が低く、生成カテゴリが限られ、下流のアプリケーションに制限があった。
本稿では,Voxel-Point Progressive Representation (VPP) を用いたプログレッシブ生成手法を提案する。
- 参考スコア(独自算出の注目度): 10.48352896851132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional 3D generation is undergoing a significant advancement, enabling
the free creation of 3D content from inputs such as text or 2D images. However,
previous approaches have suffered from low inference efficiency, limited
generation categories, and restricted downstream applications. In this work, we
revisit the impact of different 3D representations on generation quality and
efficiency. We propose a progressive generation method through Voxel-Point
Progressive Representation (VPP). VPP leverages structured voxel representation
in the proposed Voxel Semantic Generator and the sparsity of unstructured point
representation in the Point Upsampler, enabling efficient generation of
multi-category objects. VPP can generate high-quality 8K point clouds within
0.2 seconds. Additionally, the masked generation Transformer allows for various
3D downstream tasks, such as generation, editing, completion, and pre-training.
Extensive experiments demonstrate that VPP efficiently generates high-fidelity
and diverse 3D shapes across different categories, while also exhibiting
excellent representation transfer performance. Codes will be released on
https://github.com/qizekun/VPP.
- Abstract(参考訳): 条件付き3D生成は大きな進歩を遂げており、テキストや2D画像などの入力から3Dコンテンツを自由に作成することができる。
しかし、従来のアプローチでは推論効率が低く、生成カテゴリが限られ、下流のアプリケーションに制限があった。
本研究では,異なる3次元表現が生成品質と効率に与える影響を再考する。
本稿では,Voxel-Point Progressive Representation (VPP)によるプログレッシブ生成手法を提案する。
VPPは提案したVoxel Semantic Generatorにおける構造化ボクセル表現とPoint Upsamplerにおける非構造化点表現の空間性を活用し、マルチカテゴリオブジェクトの効率的な生成を可能にする。
VPPは0.2秒で高品質の8K点雲を生成することができる。
さらに、マスク付きジェネレーショントランスフォーマーは、生成、編集、完了、事前トレーニングなど、様々な3D下流タスクを可能にする。
広汎な実験により、VPPは様々なカテゴリにまたがって高忠実で多様な3次元形状を効率よく生成し、表現伝達性能も優れていた。
コードはhttps://github.com/qizekun/vppでリリースされる。
関連論文リスト
- Flex3D: Feed-Forward 3D Generation With Flexible Reconstruction Model And Input View Curation [61.040832373015014]
テキスト, 単一画像, スパース画像から高品質な3Dコンテンツを生成するための新しいフレームワークFlex3Dを提案する。
我々は、微調整された多視点画像拡散モデルとビデオ拡散モデルを用いて、候補視のプールを生成し、ターゲット3Dオブジェクトのリッチな表現を可能にする。
第2段階では、キュレートされたビューは、任意の数の入力を効果的に処理できるトランスフォーマーアーキテクチャ上に構築されたフレキシブルリコンストラクションモデル(FlexRM)に入力されます。
論文 参考訳(メタデータ) (2024-10-01T17:29:43Z) - G3PT: Unleash the power of Autoregressive Modeling in 3D Generation via Cross-scale Querying Transformer [4.221298212125194]
本稿では,大規模クエリ変換器を用いたスケーラブルな粗粒度3次元生成モデルであるG3PTを紹介する。
大規模クエリ変換器は、順序づけられたシーケンスを必要とせずに、さまざまな詳細レベルのトークンをグローバルに接続する。
実験により、G3PTは従来の3次元生成法に比べて優れた生成品質と一般化能力が得られることが示された。
論文 参考訳(メタデータ) (2024-09-10T08:27:19Z) - VividDreamer: Towards High-Fidelity and Efficient Text-to-3D Generation [69.68568248073747]
拡散に基づく3次元生成タスクにおいて, ポーズ依存型連続蒸留サンプリング (PCDS) を提案する。
PCDSは拡散軌道内でポーズ依存整合関数を構築し、最小サンプリングステップで真の勾配を近似することができる。
そこで我々は,まず1ステップのPCDSを用いて3Dオブジェクトの基本構造を作成し,さらに徐々にPCDSのステップを拡大して細かな細部を生成する,粗大な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:21:52Z) - LN3Diff: Scalable Latent Neural Fields Diffusion for Speedy 3D Generation [73.36690511083894]
本稿では,LN3Diffと呼ばれる新しいフレームワークを導入し,統一された3次元拡散パイプラインに対処する。
提案手法では,3次元アーキテクチャと変分オートエンコーダを用いて,入力画像を構造化されたコンパクトな3次元潜在空間に符号化する。
3次元生成のためのShapeNetの最先端性能を実現し,モノクロ3次元再構成と条件付き3次元生成において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T17:54:34Z) - IM-3D: Iterative Multiview Diffusion and Reconstruction for High-Quality
3D Generation [96.32684334038278]
本稿では,テキスト・ツー・3Dモデルの設計空間について検討する。
画像生成装置の代わりに映像を考慮し、マルチビュー生成を大幅に改善する。
IM-3Dは,2次元ジェネレータネットワーク10-100xの評価回数を削減する。
論文 参考訳(メタデータ) (2024-02-13T18:59:51Z) - DreamPropeller: Supercharge Text-to-3D Generation with Parallel Sampling [69.84233945649194]
そこで我々はDreamPropellerを提案する。DreamPropellerは、既存のテキストから3D生成パイプラインの周囲を、スコアの蒸留に基づいてラップできる加速アルゴリズムである。
我々のフレームワークは、ODEパスを並列サンプリングする古典的なアルゴリズムであるPicardイテレーションを一般化する。
提案アルゴリズムは, 並列計算をウォールクロック時間で処理し, 最大4.7倍の高速化を実現する。
論文 参考訳(メタデータ) (2023-11-28T01:28:58Z) - GVP: Generative Volumetric Primitives [76.95231302205235]
本稿では,512解像度画像をリアルタイムにサンプリング・レンダリングできる最初の純3次元生成モデルである生成ボリュームプリミティブ(GVP)を提案する。
GVPは、複数のプリミティブとその空間情報を共同でモデル化し、どちらも2D畳み込みネットワークを介して効率的に生成することができる。
いくつかのデータセットの実験は、最先端技術よりも優れた効率性とGVPの3次元一貫性を示す。
論文 参考訳(メタデータ) (2023-03-31T16:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。