論文の概要: GenUDC: High Quality 3D Mesh Generation with Unsigned Dual Contouring Representation
- arxiv url: http://arxiv.org/abs/2410.17802v1
- Date: Wed, 23 Oct 2024 11:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:00.303180
- Title: GenUDC: High Quality 3D Mesh Generation with Unsigned Dual Contouring Representation
- Title(参考訳): GenUDC:Unsigned Dual Contouring Representationによる高品質な3Dメッシュ生成
- Authors: Ruowei Wang, Jiaqi Li, Dan Zeng, Xueqi Ma, Zixiang Xu, Jianwei Zhang, Qijun Zhao,
- Abstract要約: 3次元生成モデルは、複雑な構造と現実的な表面を持つ高品質なメッシュを生成する。
我々は、Unsigned Dual Contouring (UDC) をメッシュ表現として活用することにより、これらの課題に対処するGenUDCフレームワークを提案する。
さらに、GenUDCは2段階の粗大な生成プロセスを3Dメッシュ生成に採用している。
- 参考スコア(独自算出の注目度): 13.923644541595893
- License:
- Abstract: Generating high-quality meshes with complex structures and realistic surfaces is the primary goal of 3D generative models. Existing methods typically employ sequence data or deformable tetrahedral grids for mesh generation. However, sequence-based methods have difficulty producing complex structures with many faces due to memory limits. The deformable tetrahedral grid-based method MeshDiffusion fails to recover realistic surfaces due to the inherent ambiguity in deformable grids. We propose the GenUDC framework to address these challenges by leveraging the Unsigned Dual Contouring (UDC) as the mesh representation. UDC discretizes a mesh in a regular grid and divides it into the face and vertex parts, recovering both complex structures and fine details. As a result, the one-to-one mapping between UDC and mesh resolves the ambiguity problem. In addition, GenUDC adopts a two-stage, coarse-to-fine generative process for 3D mesh generation. It first generates the face part as a rough shape and then the vertex part to craft a detailed shape. Extensive evaluations demonstrate the superiority of UDC as a mesh representation and the favorable performance of GenUDC in mesh generation. The code and trained models are available at https://github.com/TrepangCat/GenUDC.
- Abstract(参考訳): 複雑な構造と現実的な表面を持つ高品質なメッシュを生成することが、3D生成モデルの第一の目標である。
既存の手法は通常、メッシュ生成のためにシーケンスデータまたは変形可能な四面体グリッドを使用する。
しかし、シーケンスベースの手法は、メモリ制限のため、多くの顔を持つ複雑な構造を生成するのが困難である。
変形可能な四面体グリッドに基づくMeshDiffusion法は、変形可能なグリッドに固有の曖昧さのため、現実的な表面を復元できない。
我々は、Unsigned Dual Contouring (UDC) をメッシュ表現として活用することにより、これらの課題に対処するGenUDCフレームワークを提案する。
UDCは通常のグリッド内のメッシュを識別し、それを顔と頂点の部分に分割し、複雑な構造と細部の両方を復元する。
結果として、UDCとメッシュの1対1マッピングはあいまいさを解消する。
さらに、GenUDCは2段階の粗大な生成プロセスを3Dメッシュ生成に採用している。
まず、顔部を粗い形状にし、次に頂点部を細かな形状に加工する。
メッシュ表現としてのUDCの優位性と、メッシュ生成におけるGenUDCの良好な性能を示す。
コードとトレーニングされたモデルはhttps://github.com/TrepangCat/GenUDC.comで公開されている。
関連論文リスト
- MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - PivotMesh: Generic 3D Mesh Generation via Pivot Vertices Guidance [66.40153183581894]
汎用的でスケーラブルなメッシュ生成フレームワークであるPivotMeshを紹介します。
PivotMeshは、ネイティブメッシュ生成を大規模データセットに拡張する最初の試みである。
PivotMeshは,様々なカテゴリにまたがって,コンパクトでシャープな3Dメッシュを生成することができることを示す。
論文 参考訳(メタデータ) (2024-05-27T07:13:13Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Subdivision-Based Mesh Convolution Networks [38.09613983540932]
畳み込みニューラルネットワーク(CNN)は、2Dコンピュータビジョンにおいて大きなブレークスルーをもたらした。
本稿では,ループ分割シーケンス接続を伴う3次元トライアングルメッシュのための新しいCNNフレームワークSubdivNetを提案する。
メッシュ分類,セグメンテーション,対応,実世界からの検索実験により,SubdivNetの有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-06-04T06:50:34Z) - DualConv: Dual Mesh Convolutional Networks for Shape Correspondence [44.94765770516059]
畳み込みニューラルネットワークは2d画像で非常に成功し、3dボクセルデータを扱うために容易に拡張されている。
本稿では,これらのネットワークを三角メッシュの二重面表現に拡張する方法を検討する。
実験により,二重メッシュの近傍サイズの正則性を明示的に活用した畳み込みモデルの構築により,従来の手法と同等以上の形状表現を学習できることを実証した。
論文 参考訳(メタデータ) (2021-03-23T11:22:47Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。