論文の概要: Disentangled Geometry and Appearance for Efficient Multi-View Surface Reconstruction and Rendering
- arxiv url: http://arxiv.org/abs/2508.17436v1
- Date: Sun, 24 Aug 2025 16:29:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.522824
- Title: Disentangled Geometry and Appearance for Efficient Multi-View Surface Reconstruction and Rendering
- Title(参考訳): 効率的な多視点表面再構成とレンダリングのための遠絡形状と外観
- Authors: Qitong Zhang, Jieqing Feng,
- Abstract要約: 本稿では,ニューラルベース多視点表面再構成法の限界に対処する。
提案手法は,最新技術トレーニング (4.84分) とレンダリング (0.023秒) の高速化を実現する。
- 参考スコア(独自算出の注目度): 1.1479315794880345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the limitations of neural rendering-based multi-view surface reconstruction methods, which require an additional mesh extraction step that is inconvenient and would produce poor-quality surfaces with mesh aliasing, restricting downstream applications. Building on the explicit mesh representation and differentiable rasterization framework, this work proposes an efficient solution that preserves the high efficiency of this framework while significantly improving reconstruction quality and versatility. Specifically, we introduce a disentangled geometry and appearance model that does not rely on deep networks, enhancing learning and broadening applicability. A neural deformation field is constructed to incorporate global geometric context, enhancing geometry learning, while a novel regularization constrains geometric features passed to a neural shader to ensure its accuracy and boost shading. For appearance, a view-invariant diffuse term is separated and baked into mesh vertices, further improving rendering efficiency. Experimental results demonstrate that the proposed method achieves state-of-the-art training (4.84 minutes) and rendering (0.023 seconds) speeds, with reconstruction quality that is competitive with top-performing methods. Moreover, the method enables practical applications such as mesh and texture editing, showcasing its versatility and application potential. This combination of efficiency, competitive quality, and broad applicability makes our approach a valuable contribution to multi-view surface reconstruction and rendering.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いたマルチビュー表面再構成手法の限界に対処する。これは不便なメッシュ抽出ステップを付加し,メッシュエイリアスによる品質の悪い面を生成し,下流アプリケーションを制限する。
明示的なメッシュ表現と差別化可能なラスタ化フレームワークに基づいて、このフレームワークの高効率性を維持しつつ、再構築品質と汎用性を大幅に向上する効率的なソリューションを提案する。
具体的には,深層ネットワークに依存しない幾何・外見モデルを導入し,学習の強化と適用性の向上を図る。
ニューラルな変形場は、グローバルな幾何学的文脈を取り入れ、幾何学的学習を強化し、新しい正規化は、その正確性を確保し、シェーディングを促進するためにニューラルシェーダーに渡される幾何学的特徴を制約する。
外観に関しては、ビュー不変拡散項を分離してメッシュ頂点に焼き込み、レンダリング効率をさらに向上させる。
実験結果から,提案手法は最新技術トレーニング (4.84分) とレンダリング (0.023秒) を達成でき,再現性は最高性能の手法に匹敵することがわかった。
さらに,メッシュやテクスチャ編集などの実用的応用が可能であり,その汎用性と応用可能性を示す。
この効率性、競争品質、幅広い適用性の組み合わせにより、我々は多面的な表面の再構成とレンダリングに貴重な貢献をしている。
関連論文リスト
- TetWeave: Isosurface Extraction using On-The-Fly Delaunay Tetrahedral Grids for Gradient-Based Mesh Optimization [59.318328774645835]
我々は、勾配に基づくメッシュ最適化のための新しい等曲面表現であるTetWeaveを紹介する。
TetWeaveは、Delaunay三角測量を通じて、四面体グリッドをオンザフライで構築する。
我々は,コンピュータグラフィックスとビジョンの幅広い課題に対して,TetWeaveの適用性を示す。
論文 参考訳(メタデータ) (2025-05-07T17:32:49Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - $R^2$-Mesh: Reinforcement Learning Powered Mesh Reconstruction via Geometry and Appearance Refinement [5.810659946867557]
Neural Radiance Fields (NeRF)に基づくメッシュ再構成は、コンピュータグラフィックス、仮想現実、医療画像などの様々なアプリケーションで人気がある。
マルチビュー画像からメッシュを段階的に生成し,最適化する新しいアルゴリズムを提案する。
本手法は,メッシュレンダリングの品質と幾何学的品質の両方において,高い競争力とロバストな性能を提供する。
論文 参考訳(メタデータ) (2024-08-19T16:33:17Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。