論文の概要: SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling
- arxiv url: http://arxiv.org/abs/2503.21732v1
- Date: Thu, 27 Mar 2025 17:46:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:21.846646
- Title: SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling
- Title(参考訳): SparseFlex:高分解能・任意位相3次元形状モデリング
- Authors: Xianglong He, Zi-Xin Zou, Chia-Hao Chen, Yuan-Chen Guo, Ding Liang, Chun Yuan, Wanli Ouyang, Yan-Pei Cao, Yangguang Li,
- Abstract要約: SparseFlexは、新しいスパース構造のアイソサーフェス表現で、レンダリング損失から最大10243ドルの解像度で、差別化可能なメッシュ再構築を可能にする。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
- 参考スコア(独自算出の注目度): 79.56581753856452
- License:
- Abstract: Creating high-fidelity 3D meshes with arbitrary topology, including open surfaces and complex interiors, remains a significant challenge. Existing implicit field methods often require costly and detail-degrading watertight conversion, while other approaches struggle with high resolutions. This paper introduces SparseFlex, a novel sparse-structured isosurface representation that enables differentiable mesh reconstruction at resolutions up to $1024^3$ directly from rendering losses. SparseFlex combines the accuracy of Flexicubes with a sparse voxel structure, focusing computation on surface-adjacent regions and efficiently handling open surfaces. Crucially, we introduce a frustum-aware sectional voxel training strategy that activates only relevant voxels during rendering, dramatically reducing memory consumption and enabling high-resolution training. This also allows, for the first time, the reconstruction of mesh interiors using only rendering supervision. Building upon this, we demonstrate a complete shape modeling pipeline by training a variational autoencoder (VAE) and a rectified flow transformer for high-quality 3D shape generation. Our experiments show state-of-the-art reconstruction accuracy, with a ~82% reduction in Chamfer Distance and a ~88% increase in F-score compared to previous methods, and demonstrate the generation of high-resolution, detailed 3D shapes with arbitrary topology. By enabling high-resolution, differentiable mesh reconstruction and generation with rendering losses, SparseFlex significantly advances the state-of-the-art in 3D shape representation and modeling.
- Abstract(参考訳): 開面や複雑な内部を含む任意の位相を持つ高忠実な3Dメッシュを作成することは、依然として大きな課題である。
既存の暗黙の場法は、高分解能に苦しむのに対して、コストが高く、詳細で劣化する水密変換を必要とすることが多い。
本稿では,SparseFlexについて紹介する。SparseFlexは,レンダリング損失から直接,最大1024^3$の解像度でメッシュ再構成を可能にする,スパース構造を持つ新しい異面表現である。
SparseFlexはFlexicubesの精度をスパースボクセル構造と組み合わせ、表面隣接領域に計算を集中させ、開面を効率的に処理する。
重要なことは、レンダリング中にのみ関連するボクセルを活性化し、メモリ消費を劇的に減らし、高精度なトレーニングを可能にするフラストム対応の分節ボクセルトレーニング戦略を導入することである。
これはまた、初めてレンダリング監視のみを使用してメッシュインテリアを再構築することを可能にする。
これに基づいて, 可変オートエンコーダ (VAE) と高精度な3次元形状生成のための整流トランスを訓練し, 完全な形状モデリングパイプラインを実演する。
実験では, 従来の手法と比較して, シャンファー距離が約82%減少し, Fスコアが約88%増加し, 任意の位相を持つ高分解能で詳細な3次元形状の生成が示された。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
関連論文リスト
- ArchComplete: Autoregressive 3D Architectural Design Generation with Hierarchical Diffusion-Based Upsampling [0.0]
ArchCompleteはベクトル量子化モデルからなる2段階のボクセルベースの3D生成パイプラインである。
パイプラインのキーとなるのは、(i) 2.5Dの知覚的損失とともに最適化された、ローカルなパッチ埋め込みのコンテキスト的にリッチなコードブックを学習することです。
ArchCompleteは643ドルという解像度で自動回帰的にモデルを生成し、それを5123ドルまで改良する。
論文 参考訳(メタデータ) (2024-12-23T20:13:27Z) - FOF-X: Towards Real-time Detailed Human Reconstruction from a Single Image [68.84221452621674]
本稿では,1枚の画像から詳細な人物形状をリアルタイムに再現するFOF-Xを提案する。
FOF-Xはテクスチャや照明による性能劣化を避ける。
FOFとメッシュ表現間の変換アルゴリズムをラプラシアン制約とオートマトンベース不連続整合器で拡張する。
論文 参考訳(メタデータ) (2024-12-08T14:46:29Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - HIVE: HIerarchical Volume Encoding for Neural Implicit Surface Reconstruction [37.00102816748563]
空間情報を明示的に符号化するためのボリュームエンコーディングを導入する。
高分解能ボリュームは、高周波幾何学の詳細をキャプチャする。
低解像度の体積は、形状を滑らかに保つために空間的な一貫性を強制する。
この階層的なボリュームエンコーディングは、プラグ・アンド・プレイモジュールとして任意の暗黙の面再構成法に付加することができる。
論文 参考訳(メタデータ) (2024-08-03T06:34:20Z) - VortSDF: 3D Modeling with Centroidal Voronoi Tesselation on Signed Distance Field [5.573454319150408]
四面体グリッド上での3次元形状特性を推定するために,明示的なSDFフィールドと浅いカラーネットワークを組み合わせた体積最適化フレームワークを提案する。
Chamfer統計による実験結果は、オブジェクト、オープンシーン、人間などの様々なシナリオにおいて、前例のない復元品質でこのアプローチを検証する。
論文 参考訳(メタデータ) (2024-07-29T09:46:39Z) - PRS: Sharp Feature Priors for Resolution-Free Surface Remeshing [30.28380889862059]
本稿では,自動特徴検出とリメッシングのためのデータ駆動方式を提案する。
提案アルゴリズムは,Fスコアの26%,知覚値の42%がtextRMSE_textv$である。
論文 参考訳(メタデータ) (2023-11-30T12:15:45Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。