論文の概要: Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2208.12697v5
- Date: Sun, 13 Aug 2023 15:52:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 23:16:01.542099
- Title: Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction
- Title(参考訳): voxurf:voxelベースの効率的かつ正確な神経表面再構成
- Authors: Tong Wu, Jiaqi Wang, Xingang Pan, Xudong Xu, Christian Theobalt, Ziwei
Liu, Dahua Lin
- Abstract要約: 本稿では,ボクセルをベースとした表面再構成手法であるVoxurfを提案する。
ボクサーフは,(1)コヒーレントな粗い形状を達成し,細部を連続的に再現する2段階の訓練手順,2)色-幾何学的依存性を維持する2色ネットワーク,3)ボクセル間の情報伝達を促進する階層的幾何学的特徴などを通じて,上記の課題に対処する。
- 参考スコア(独自算出の注目度): 142.61256012419562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural surface reconstruction aims to reconstruct accurate 3D surfaces based
on multi-view images. Previous methods based on neural volume rendering mostly
train a fully implicit model with MLPs, which typically require hours of
training for a single scene. Recent efforts explore the explicit volumetric
representation to accelerate the optimization via memorizing significant
information with learnable voxel grids. However, existing voxel-based methods
often struggle in reconstructing fine-grained geometry, even when combined with
an SDF-based volume rendering scheme. We reveal that this is because 1) the
voxel grids tend to break the color-geometry dependency that facilitates
fine-geometry learning, and 2) the under-constrained voxel grids lack spatial
coherence and are vulnerable to local minima. In this work, we present Voxurf,
a voxel-based surface reconstruction approach that is both efficient and
accurate. Voxurf addresses the aforementioned issues via several key designs,
including 1) a two-stage training procedure that attains a coherent coarse
shape and recovers fine details successively, 2) a dual color network that
maintains color-geometry dependency, and 3) a hierarchical geometry feature to
encourage information propagation across voxels. Extensive experiments show
that Voxurf achieves high efficiency and high quality at the same time. On the
DTU benchmark, Voxurf achieves higher reconstruction quality with a 20x
training speedup compared to previous fully implicit methods. Our code is
available at https://github.com/wutong16/Voxurf.
- Abstract(参考訳): 神経表面再構成は、多視点画像に基づく正確な3次元表面の再構築を目的としている。
ニューラルボリュームレンダリングに基づく従来の方法は、主に完全に暗黙のモデルをMDPでトレーニングするが、通常は1つのシーンで何時間もトレーニングする必要がある。
最近の取り組みは、学習可能なvoxelグリッドで重要な情報を記憶することで最適化を加速するために明示的なボリューム表現を探求している。
しかしながら、既存のボクセルベースの手法は、SDFベースのボリュームレンダリングスキームと組み合わせても、微細な幾何学の再構築に苦慮することが多い。
これが原因であることを明らかにする。
1)voxelグリッドは,細粒度学習を容易にする色-幾何依存性を破る傾向がある。
2) 拘束されていないボクセル格子は空間コヒーレンスを欠き, 局所ミニマに弱い。
本稿では,voxurfを用いて,効率と精度を兼ね備えた表面再構成手法を提案する。
voxurfは、上記の問題をいくつかの重要な設計で解決する。
1)コヒーレントな粗い形状に到達し,細部を順次回収する2段階の訓練手順
2)色幾何依存性を保ったデュアルカラーネットワーク,および
3)voxel間の情報伝達を促進する階層幾何学的特徴。
大規模な実験では、Voxurfは高い効率と高品質を同時に達成している。
DTUベンチマークでは、Voxurfは従来の完全に暗黙の手法に比べて20倍のトレーニングスピードアップで高い再構築品質を達成する。
私たちのコードはhttps://github.com/wutong16/voxurfで利用可能です。
関連論文リスト
- PR-NeuS: A Prior-based Residual Learning Paradigm for Fast Multi-view
Neural Surface Reconstruction [45.34454245176438]
高速多視点ニューラルサーフェス再構成のための事前学習パラダイムを提案する。
本手法は,1つのシーンの表面を再構築するのに3分程度しかかからず,競争力のある表面品質を実現している。
論文 参考訳(メタデータ) (2023-12-18T09:24:44Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Learning Signed Distance Field for Multi-view Surface Reconstruction [24.090786783370195]
ステレオマッチングと特徴整合性の知識を生かした新しいニューラルネットワーク表面再構成フレームワークを提案する。
サインされた距離場(SDF)と表面光場(SDF)をそれぞれ、シーン形状と外観を表すために適用する。
本手法は,地形推定のロバスト性を向上し,複雑なシーントポロジの再構築を支援する。
論文 参考訳(メタデータ) (2021-08-23T06:23:50Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。