論文の概要: Faithful Contouring: Near-Lossless 3D Voxel Representation Free from Iso-surface
- arxiv url: http://arxiv.org/abs/2511.04029v2
- Date: Fri, 07 Nov 2025 03:08:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 12:50:39.971309
- Title: Faithful Contouring: Near-Lossless 3D Voxel Representation Free from Iso-surface
- Title(参考訳): 忠実なコントゥーリング: アイソ面から自由な近接ロスレス3次元ボクセル表現
- Authors: Yihao Luo, Xianglong He, Chuanyu Pan, Yiwen Chen, Jiaqi Wu, Yangguang Li, Wanli Ouyang, Yuanming Hu, Guang Yang, ChoonHwai Yap,
- Abstract要約: 本稿では,3次元メッシュにおけるほぼロスレスな忠実度を実現するボクセル化表現であるFithful Contouringを提案する。
提案手法は,既存表現の柔軟性と改善も示す。
- 参考スコア(独自算出の注目度): 49.742538510885
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate and efficient voxelized representations of 3D meshes are the foundation of 3D reconstruction and generation. However, existing representations based on iso-surface heavily rely on water-tightening or rendering optimization, which inevitably compromise geometric fidelity. We propose Faithful Contouring, a sparse voxelized representation that supports 2048+ resolutions for arbitrary meshes, requiring neither converting meshes to field functions nor extracting the isosurface during remeshing. It achieves near-lossless fidelity by preserving sharpness and internal structures, even for challenging cases with complex geometry and topology. The proposed method also shows flexibility for texturing, manipulation, and editing. Beyond representation, we design a dual-mode autoencoder for Faithful Contouring, enabling scalable and detail-preserving shape reconstruction. Extensive experiments show that Faithful Contouring surpasses existing methods in accuracy and efficiency for both representation and reconstruction. For direct representation, it achieves distance errors at the $10^{-5}$ level; for mesh reconstruction, it yields a 93\% reduction in Chamfer Distance and a 35\% improvement in F-score over strong baselines, confirming superior fidelity as a representation for 3D learning tasks.
- Abstract(参考訳): 3次元メッシュの高精度かつ効率的なボキセル化表現が3次元再構成と生成の基礎となっている。
しかし、アイソサーフェスに基づく既存の表現は水密化やレンダリングの最適化に大きく依存しており、必然的に幾何学的忠実さを損なう。
本稿では,任意のメッシュに対して2048以上の解像度をサポートする疎ボキシ化表現であるFithful Contouringを提案する。
複雑な幾何学やトポロジーの挑戦的な場合であっても、鋭さと内部構造を保ち、ほぼロスレスの忠実さを達成する。
提案手法はまた,テクスチャ,操作,編集の柔軟性を示す。
表現以外にも、我々はFithful Contouringのためのデュアルモードオートエンコーダを設計し、スケーラブルで詳細保存可能な形状復元を可能にする。
広範囲な実験により、Fithful Contouringは、表現と再構成の両方の精度と効率において、既存の手法を超越していることが示されている。
メッシュ再構成では、Chamfer Distanceが93%削減され、Fスコアが35%改善され、3D学習タスクの表現として優れた忠実性が確認される。
関連論文リスト
- Sparc3D: Sparse Representation and Construction for High-Resolution 3D Shapes Modeling [34.238349310770886]
Sarc3Dはスパース変形可能なマーチングキューブ表現と新しいエンコーダSparconv-VAEを組み合わせた統一フレームワークである。
Sparc3Dは、オープンサーフェス、切断されたコンポーネント、複雑な幾何学を含む挑戦的な入力に対して、最先端の再構築忠実性を達成する。
論文 参考訳(メタデータ) (2025-05-20T15:44:54Z) - SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling [79.56581753856452]
SparseFlexは、新しいスパース構造のアイソサーフェス表現で、レンダリング損失から最大10243ドルの解像度で、差別化可能なメッシュ再構築を可能にする。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-27T17:46:42Z) - PRS: Sharp Feature Priors for Resolution-Free Surface Remeshing [30.28380889862059]
本稿では,自動特徴検出とリメッシングのためのデータ駆動方式を提案する。
提案アルゴリズムは,Fスコアの26%,知覚値の42%がtextRMSE_textv$である。
論文 参考訳(メタデータ) (2023-11-30T12:15:45Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Representing 3D Shapes with Probabilistic Directed Distance Fields [7.528141488548544]
暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
論文 参考訳(メタデータ) (2021-12-10T02:15:47Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。