論文の概要: Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2208.12697v4
- Date: Tue, 11 Apr 2023 17:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 19:08:11.110591
- Title: Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction
- Title(参考訳): voxurf:voxelベースの効率的かつ正確な神経表面再構成
- Authors: Tong Wu, Jiaqi Wang, Xingang Pan, Xudong Xu, Christian Theobalt, Ziwei
Liu, Dahua Lin
- Abstract要約: 本稿では,ボクセルをベースとした表面再構成手法であるVoxurfを提案する。
ボクサーフは,(1)コヒーレントな粗い形状を達成し,細部を連続的に再現する2段階の訓練手順,2)色-幾何学的依存性を維持する2色ネットワーク,3)ボクセル間の情報伝達を促進する階層的幾何学的特徴などを通じて,上記の課題に対処する。
- 参考スコア(独自算出の注目度): 141.47810595396498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural surface reconstruction aims to reconstruct accurate 3D surfaces based
on multi-view images. Previous methods based on neural volume rendering mostly
train a fully implicit model with MLPs, which typically require hours of
training for a single scene. Recent efforts explore the explicit volumetric
representation to accelerate the optimization via memorizing significant
information with learnable voxel grids. However, existing voxel-based methods
often struggle in reconstructing fine-grained geometry, even when combined with
an SDF-based volume rendering scheme. We reveal that this is because 1) the
voxel grids tend to break the color-geometry dependency that facilitates
fine-geometry learning, and 2) the under-constrained voxel grids lack spatial
coherence and are vulnerable to local minima. In this work, we present Voxurf,
a voxel-based surface reconstruction approach that is both efficient and
accurate. Voxurf addresses the aforementioned issues via several key designs,
including 1) a two-stage training procedure that attains a coherent coarse
shape and recovers fine details successively, 2) a dual color network that
maintains color-geometry dependency, and 3) a hierarchical geometry feature to
encourage information propagation across voxels. Extensive experiments show
that Voxurf achieves high efficiency and high quality at the same time. On the
DTU benchmark, Voxurf achieves higher reconstruction quality with a 20x
training speedup compared to previous fully implicit methods. Our code is
available at https://github.com/wutong16/Voxurf.
- Abstract(参考訳): 神経表面再構成は、多視点画像に基づく正確な3次元表面の再構築を目的としている。
ニューラルボリュームレンダリングに基づく従来の方法は、主に完全に暗黙のモデルをMDPでトレーニングするが、通常は1つのシーンで何時間もトレーニングする必要がある。
最近の取り組みは、学習可能なvoxelグリッドで重要な情報を記憶することで最適化を加速するために明示的なボリューム表現を探求している。
しかしながら、既存のボクセルベースの手法は、SDFベースのボリュームレンダリングスキームと組み合わせても、微細な幾何学の再構築に苦慮することが多い。
これが原因であることを明らかにする。
1)voxelグリッドは,細粒度学習を容易にする色-幾何依存性を破る傾向がある。
2) 拘束されていないボクセル格子は空間コヒーレンスを欠き, 局所ミニマに弱い。
本稿では,voxurfを用いて,効率と精度を兼ね備えた表面再構成手法を提案する。
voxurfは、上記の問題をいくつかの重要な設計で解決する。
1)コヒーレントな粗い形状に到達し,細部を順次回収する2段階の訓練手順
2)色幾何依存性を保ったデュアルカラーネットワーク,および
3)voxel間の情報伝達を促進する階層幾何学的特徴。
大規模な実験では、Voxurfは高い効率と高品質を同時に達成している。
DTUベンチマークでは、Voxurfは従来の完全に暗黙の手法に比べて20倍のトレーニングスピードアップで高い再構築品質を達成する。
私たちのコードはhttps://github.com/wutong16/voxurfで利用可能です。
関連論文リスト
- NeuRodin: A Two-stage Framework for High-Fidelity Neural Surface Reconstruction [63.85586195085141]
サイン付き距離関数 (SDF) を用いたボリュームレンダリングは, 表面再構成において有意な機能を示した。
ニューロディン(NeuRodin)は、新しい2段階の神経表面再構成フレームワークである。
NeuRodinは高忠実な表面再構成を実現し、密度ベース手法の柔軟な最適化特性を維持している。
論文 参考訳(メタデータ) (2024-08-19T17:36:35Z) - VoxNeuS: Enhancing Voxel-Based Neural Surface Reconstruction via Gradient Interpolation [10.458776364195796]
計算およびメモリ効率のよいニューラルサーフェス再構成のための軽量なサーフェス再構成法であるVoxNeuSを提案する。
トレーニングプロセス全体は15分で、1つの2080ti GPU上で3GB未満のメモリを必要とする。
論文 参考訳(メタデータ) (2024-06-11T11:26:27Z) - HVOFusion: Incremental Mesh Reconstruction Using Hybrid Voxel Octree [12.180935725861723]
本稿では,オクセル構造とオクセル構造を融合させるハイブリッドなオクセルオクツリー手法を提案する。
このようなスパース構造は葉ノードの三角形の面を保存し、漸進的な再構成のために部分メッシュを逐次生成する。
いくつかのデータセットに対する実験結果から,提案手法は現実的な色でシーンを迅速かつ正確に再構築できることが示された。
論文 参考訳(メタデータ) (2024-04-27T18:24:53Z) - PR-NeuS: A Prior-based Residual Learning Paradigm for Fast Multi-view
Neural Surface Reconstruction [45.34454245176438]
高速多視点ニューラルサーフェス再構成のための事前学習パラダイムを提案する。
本手法は,1つのシーンの表面を再構築するのに3分程度しかかからず,競争力のある表面品質を実現している。
論文 参考訳(メタデータ) (2023-12-18T09:24:44Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。