論文の概要: FullFormer: Generating Shapes Inside Shapes
- arxiv url: http://arxiv.org/abs/2303.11235v1
- Date: Mon, 20 Mar 2023 16:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 14:42:11.979361
- Title: FullFormer: Generating Shapes Inside Shapes
- Title(参考訳): FullFormer: 内部の形状を生成する
- Authors: Tejaswini Medi, Jawad Tayyub, Muhammad Sarmad, Frank Lindseth and
Margret Keuper
- Abstract要約: 本稿では,複雑な3次元形状を内部幾何学的詳細で生成するための最初の暗黙的生成モデルを提案する。
我々のモデルは、非水密メッシュデータから学習できるネストした3次元表面を表現するために符号のない距離場を使用する。
本研究では,ShapeNetデータセットの"Cars","Planes","Chairs"といった一般的なクラス上で,最先端のクラウド生成結果が得られたことを実証する。
- 参考スコア(独自算出の注目度): 9.195909458772187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit generative models have been widely employed to model 3D data and
have recently proven to be successful in encoding and generating high-quality
3D shapes. This work builds upon these models and alleviates current
limitations by presenting the first implicit generative model that facilitates
the generation of complex 3D shapes with rich internal geometric details. To
achieve this, our model uses unsigned distance fields to represent nested 3D
surfaces allowing learning from non-watertight mesh data. We propose a
transformer-based autoregressive model for 3D shape generation that leverages
context-rich tokens from vector quantized shape embeddings. The generated
tokens are decoded into an unsigned distance field which is rendered into a
novel 3D shape exhibiting a rich internal structure. We demonstrate that our
model achieves state-of-the-art point cloud generation results on popular
classes of 'Cars', 'Planes', and 'Chairs' of the ShapeNet dataset.
Additionally, we curate a dataset that exclusively comprises shapes with
realistic internal details from the `Cars' class of ShapeNet and demonstrate
our method's efficacy in generating these shapes with internal geometry.
- Abstract(参考訳): 暗黙的生成モデルは3dデータをモデル化するために広く使われており、最近は高品質な3d形状の符号化と生成に成功している。
この研究はこれらのモデルに基づいており、リッチな内部幾何学的詳細を持つ複雑な3d形状の生成を容易にする最初の暗黙的な生成モデルを提示して、現在の制限を緩和している。
そこで本モデルは,非水密メッシュデータから学習可能なネストした3次元表面を表現するために,符号のない距離場を用いる。
ベクトル量子化された形状埋め込みからコンテキストリッチなトークンを利用する3次元形状生成のためのトランスベース自己回帰モデルを提案する。
生成されたトークンは符号のない距離フィールドにデコードされ、リッチな内部構造を示す新しい3D形状に描画される。
我々は,shapenetデータセットの'cars','planes','chairs'のクラスで,最先端のポイントクラウド生成を実現することを実証する。
さらに,shapenet の ‘cars' クラスから,リアルな内部詳細を持つ形状を排他的に含むデータセットをキュレートし,これらの形状を内部幾何学で生成する手法の有効性を実証する。
関連論文リスト
- DetailGen3D: Generative 3D Geometry Enhancement via Data-Dependent Flow [44.72037991063735]
DetailGen3Dは、生成された3D形状を強化するために特別に設計されたジェネレーティブなアプローチである。
我々の重要な洞察は、潜在空間におけるデータ依存フローを通して、粗大から細小への変換を直接モデル化することである。
改質時に正確な空間対応を確保するためのトークンマッチング戦略を導入する。
論文 参考訳(メタデータ) (2024-11-25T17:08:17Z) - MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - 3D Semantic Subspace Traverser: Empowering 3D Generative Model with
Shape Editing Capability [13.041974495083197]
従来の3次元形状生成の研究は、意味情報の重要性を考慮せずに、形状の質と構造に焦点を合わせてきた。
本稿では,3Dセマンティックサブスペーストラバーサという新しい意味生成モデルを提案する。
本手法は,複雑な構造を持つ可塑性形状を生成でき,意味的属性の編集を可能にする。
論文 参考訳(メタデータ) (2023-07-26T09:04:27Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - Learning to Generate 3D Shapes from a Single Example [28.707149807472685]
本稿では,入力形状の幾何学的特徴を空間的範囲にわたって捉えるために,マルチスケールのGANモデルを提案する。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
結果の形状は異なるスケールで変化を示し、同時に基準形状のグローバルな構造を保持する。
論文 参考訳(メタデータ) (2022-08-05T01:05:32Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Discrete Point Flow Networks for Efficient Point Cloud Generation [36.03093265136374]
生成モデルは3次元形状とその統計的バリエーションをモデル化するのに有効であることが証明されている。
任意の大きさの3次元点雲を生成するために,フローの正規化に基づく潜在変数モデルを導入する。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
論文 参考訳(メタデータ) (2020-07-20T14:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。