論文の概要: PivotMesh: Generic 3D Mesh Generation via Pivot Vertices Guidance
- arxiv url: http://arxiv.org/abs/2405.16890v1
- Date: Mon, 27 May 2024 07:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 16:41:02.715464
- Title: PivotMesh: Generic 3D Mesh Generation via Pivot Vertices Guidance
- Title(参考訳): PivotMesh:Pivot Vertices Guidanceによるジェネリック3Dメッシュ生成
- Authors: Haohan Weng, Yikai Wang, Tong Zhang, C. L. Philip Chen, Jun Zhu,
- Abstract要約: 汎用的でスケーラブルなメッシュ生成フレームワークであるPivotMeshを紹介します。
PivotMeshは、ネイティブメッシュ生成を大規模データセットに拡張する最初の試みである。
PivotMeshは,様々なカテゴリにまたがって,コンパクトでシャープな3Dメッシュを生成することができることを示す。
- 参考スコア(独自算出の注目度): 66.40153183581894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating compact and sharply detailed 3D meshes poses a significant challenge for current 3D generative models. Different from extracting dense meshes from neural representation, some recent works try to model the native mesh distribution (i.e., a set of triangles), which generates more compact results as humans crafted. However, due to the complexity and variety of mesh topology, these methods are typically limited to small datasets with specific categories and are hard to extend. In this paper, we introduce a generic and scalable mesh generation framework PivotMesh, which makes an initial attempt to extend the native mesh generation to large-scale datasets. We employ a transformer-based auto-encoder to encode meshes into discrete tokens and decode them from face level to vertex level hierarchically. Subsequently, to model the complex typology, we first learn to generate pivot vertices as coarse mesh representation and then generate the complete mesh tokens with the same auto-regressive Transformer. This reduces the difficulty compared with directly modeling the mesh distribution and further improves the model controllability. PivotMesh demonstrates its versatility by effectively learning from both small datasets like Shapenet, and large-scale datasets like Objaverse and Objaverse-xl. Extensive experiments indicate that PivotMesh can generate compact and sharp 3D meshes across various categories, highlighting its great potential for native mesh modeling.
- Abstract(参考訳): コンパクトで精密な3Dメッシュの生成は、現在の3D生成モデルにとって大きな課題となる。
神経表現から高密度メッシュを抽出するのとは違い、最近の研究は、人間によって作られたよりコンパクトな結果を生成するネイティブメッシュ分布(すなわち三角形の集合)をモデル化しようとする試みもある。
しかしながら、メッシュトポロジの複雑さと多様性のため、これらの手法は通常、特定のカテゴリを持つ小さなデータセットに限られており、拡張が困難である。
本稿では,汎用的でスケーラブルなメッシュ生成フレームワークであるPivotMeshを紹介する。
我々はトランスフォーマーベースのオートエンコーダを用いてメッシュを離散トークンにエンコードし、それらを顔レベルから頂点レベルに階層的にデコードする。
その後、複雑な型をモデル化するために、まず粗いメッシュ表現としてピボット頂点を生成し、次に同じ自動回帰変換器で完全なメッシュトークンを生成する。
これにより、メッシュ分布を直接モデル化するよりも難易度が低くなり、モデル制御性がさらに向上する。
PivotMeshは、Shapenetのような小さなデータセットとObjaverseやObjaverse-xlのような大規模なデータセットの両方から効果的に学習することで、その汎用性を示している。
大規模な実験の結果、PivotMeshはさまざまなカテゴリにわたってコンパクトでシャープな3Dメッシュを生成することができ、ネイティブメッシュモデリングの大きな可能性を強調している。
関連論文リスト
- GenUDC: High Quality 3D Mesh Generation with Unsigned Dual Contouring Representation [13.923644541595893]
3次元生成モデルは、複雑な構造と現実的な表面を持つ高品質なメッシュを生成する。
我々は、Unsigned Dual Contouring (UDC) をメッシュ表現として活用することにより、これらの課題に対処するGenUDCフレームワークを提案する。
さらに、GenUDCは2段階の粗大な生成プロセスを3Dメッシュ生成に採用している。
論文 参考訳(メタデータ) (2024-10-23T11:59:49Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - GetMesh: A Controllable Model for High-quality Mesh Generation and Manipulation [25.42531640985281]
Meshは様々な産業アプリケーションにおける3Dアセットの基本的な表現であり、プロのソフトウェアによって広く支持されている。
本稿では,メッシュ生成と異なるカテゴリ間の操作のための,高度に制御可能な生成モデルGetMeshを提案する。
論文 参考訳(メタデータ) (2024-03-18T17:25:36Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - MeshGPT: Generating Triangle Meshes with Decoder-Only Transformers [32.169007676811404]
MeshGPTは、アーティストが作ったメッシュに典型的なコンパクトさを反映した、三角形メッシュを生成するための新しいアプローチである。
近年の強力な大規模言語モデルの発展に触発されて,三角メッシュを三角形として自動回帰的に生成するシーケンスベースアプローチを採用した。
論文 参考訳(メタデータ) (2023-11-27T01:20:11Z) - MeshDiffusion: Score-based Generative 3D Mesh Modeling [68.40770889259143]
本研究では,シーンの自動生成と物理シミュレーションのための現実的な3次元形状生成の課題について考察する。
メッシュのグラフ構造を利用して、3Dメッシュを生成するのにシンプルだが非常に効果的な生成モデリング手法を用いる。
具体的には、変形可能な四面体格子でメッシュを表現し、この直接パラメトリゼーション上で拡散モデルを訓練する。
論文 参考訳(メタデータ) (2023-03-14T17:59:01Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Fully Convolutional Mesh Autoencoder using Efficient Spatially Varying
Kernels [41.81187438494441]
任意の登録メッシュデータに対する非テンプレート固有完全畳み込みメッシュオートエンコーダを提案する。
我々のモデルは、復元精度の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2020-06-08T02:30:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。