論文の概要: Vox-Surf: Voxel-based Implicit Surface Representation
- arxiv url: http://arxiv.org/abs/2208.10925v1
- Date: Sun, 21 Aug 2022 18:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:27:36.259588
- Title: Vox-Surf: Voxel-based Implicit Surface Representation
- Title(参考訳): vox-surf:voxelベースの暗黙的表面表現
- Authors: Hai Li, Xingrui Yang, Hongjia Zhai, Yuqian Liu, Hujun Bao, Guofeng
Zhang
- Abstract要約: Vox-Surfはボクセルベースの暗黙の表面表現である。
微妙な表面の詳細と正確な色を、他の方法よりも少ないメモリと高速なレンダリングで学習することができる。
- 参考スコア(独自算出の注目度): 28.53977514209078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual content creation and interaction play an important role in modern 3D
applications such as AR and VR. Recovering detailed 3D models from real scenes
can significantly expand the scope of its applications and has been studied for
decades in the computer vision and computer graphics community. We propose
Vox-Surf, a voxel-based implicit surface representation. Our Vox-Surf divides
the space into finite bounded voxels. Each voxel stores geometry and appearance
information in its corner vertices. Vox-Surf is suitable for almost any
scenario thanks to sparsity inherited from voxel representation and can be
easily trained from multiple view images. We leverage the progressive training
procedure to extract important voxels gradually for further optimization so
that only valid voxels are preserved, which greatly reduces the number of
sampling points and increases rendering speed.The fine voxels can also be
considered as the bounding volume for collision detection.The experiments show
that Vox-Surf representation can learn delicate surface details and accurate
color with less memory and faster rendering speed than other methods.We also
show that Vox-Surf can be more practical in scene editing and AR applications.
- Abstract(参考訳): バーチャルコンテンツの作成とインタラクションは、ARやVRといった現代の3Dアプリケーションにおいて重要な役割を果たす。
実際のシーンから詳細な3Dモデルを復元することは、アプリケーションの範囲を大幅に拡大し、コンピュータビジョンとコンピュータグラフィックスコミュニティで何十年も研究されてきた。
ボクセルに基づく暗黙曲面表現であるVox-Surfを提案する。
我々のVox-Surfは空間を有限有界ボクセルに分割する。
各ボクセルは、角の頂点に幾何学情報と外観情報を格納する。
Vox-Surfは、voxel表現から受け継いだ空間性のおかげで、ほぼあらゆるシナリオに適しており、複数のビューイメージから容易にトレーニングできる。
We leverage the progressive training procedure to extract important voxels gradually for further optimization so that only valid voxels are preserved, which greatly reduces the number of sampling points and increases rendering speed.The fine voxels can also be considered as the bounding volume for collision detection.The experiments show that Vox-Surf representation can learn delicate surface details and accurate color with less memory and faster rendering speed than other methods.We also show that Vox-Surf can be more practical in scene editing and AR applications.
関連論文リスト
- HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - NeRFMeshing: Distilling Neural Radiance Fields into
Geometrically-Accurate 3D Meshes [56.31855837632735]
我々は、NeRF駆動のアプローチで容易に3次元表面を再構成できるコンパクトで柔軟なアーキテクチャを提案する。
最後の3Dメッシュは物理的に正確で、デバイスアレイ上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2023-03-16T16:06:03Z) - Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction [142.61256012419562]
本稿では,ボクセルをベースとした表面再構成手法であるVoxurfを提案する。
ボクサーフは,(1)コヒーレントな粗い形状を達成し,細部を連続的に再現する2段階の訓練手順,2)色-幾何学的依存性を維持する2色ネットワーク,3)ボクセル間の情報伝達を促進する階層的幾何学的特徴などを通じて,上記の課題に対処する。
論文 参考訳(メタデータ) (2022-08-26T14:48:02Z) - DeVRF: Fast Deformable Voxel Radiance Fields for Dynamic Scenes [27.37830742693236]
本稿では,動的放射場を高速に学習するための新しい表現であるDeVRFを提案する。
実験により、DeVRFはオンパー高忠実度の結果で2桁のスピードアップを達成することが示された。
論文 参考訳(メタデータ) (2022-05-31T12:13:54Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。