論文の概要: Direct Voxel Grid Optimization: Super-fast Convergence for Radiance
Fields Reconstruction
- arxiv url: http://arxiv.org/abs/2111.11215v1
- Date: Mon, 22 Nov 2021 14:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:12:36.202997
- Title: Direct Voxel Grid Optimization: Super-fast Convergence for Radiance
Fields Reconstruction
- Title(参考訳): 直接ボクセル格子最適化:放射場再構成のための超高速収束
- Authors: Cheng Sun, Min Sun, Hwann-Tzong Chen
- Abstract要約: 画像の集合からシーンごとの放射界を再構成する超高速収束手法を提案する。
提案手法はNeRFに比較可能な品質を実現し,1つのGPUで15分以内でスクラッチから急速に収束する。
- 参考スコア(独自算出の注目度): 42.3230709881297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a super-fast convergence approach to reconstructing the per-scene
radiance field from a set of images that capture the scene with known poses.
This task, which is often applied to novel view synthesis, is recently
revolutionized by Neural Radiance Field (NeRF) for its state-of-the-art quality
and flexibility. However, NeRF and its variants require a lengthy training time
ranging from hours to days for a single scene. In contrast, our approach
achieves NeRF-comparable quality and converges rapidly from scratch in less
than 15 minutes with a single GPU. We adopt a representation consisting of a
density voxel grid for scene geometry and a feature voxel grid with a shallow
network for complex view-dependent appearance. Modeling with explicit and
discretized volume representations is not new, but we propose two simple yet
non-trivial techniques that contribute to fast convergence speed and
high-quality output. First, we introduce the post-activation interpolation on
voxel density, which is capable of producing sharp surfaces in lower grid
resolution. Second, direct voxel density optimization is prone to suboptimal
geometry solutions, so we robustify the optimization process by imposing
several priors. Finally, evaluation on five inward-facing benchmarks shows that
our method matches, if not surpasses, NeRF's quality, yet it only takes about
15 minutes to train from scratch for a new scene.
- Abstract(参考訳): 本研究では,シーンを既知のポーズでキャプチャする画像群から,シーン毎の放射場を再構成する超高速収束手法を提案する。
このタスクは、しばしば新しいビュー合成に適用されるが、最近Neural Radiance Field (NeRF)によって、最先端の品質と柔軟性のために革新されている。
しかし、NeRFとその派生型は、単一のシーンで何時間から何日かのトレーニング時間を必要とする。
対照的に,本手法はNeRF互換の品質を実現し,1つのGPUで15分以内でスクラッチから急速に収束する。
シーン幾何学のための密度ボクセルグリッドと、複雑なビュー依存の外観のための浅いネットワークを備えた特徴ボクセルグリッドからなる表現を採用する。
明示的で離散化された体積表現を用いたモデリングは新しいものではなく、高速収束速度と高品質出力に寄与する2つの単純かつ非自明な手法を提案する。
まず,低格子解像度で鋭い表面を生成できるボクセル密度に対する活性化後補間を導入する。
第2に, 直接ボクセル密度最適化は準最適幾何解に近づいたため, 最適化過程を複数の事前条件を課すことで強固化する。
最後に、内向きの5つのベンチマークで評価したところ、我々の手法はNeRFの品質に勝るが、新しいシーンをスクラッチからトレーニングするのに15分程度しかかからないことがわかった。
関連論文リスト
- D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - INPC: Implicit Neural Point Clouds for Radiance Field Rendering [5.64500060725726]
現実世界のシーンを再現し、新しい視点で合成するための新しいアプローチを提案する。
本研究では,連続オクツリー型確率場とマルチ解像度ハッシュグリッドにおける点雲を暗黙的に符号化するハイブリッドシーン表現を提案する。
本手法は,対話的なフレームレートで高速な推論を実現し,さらに性能を高めるために露骨な点雲を抽出することができる。
論文 参考訳(メタデータ) (2024-03-25T15:26:32Z) - NeuV-SLAM: Fast Neural Multiresolution Voxel Optimization for RGBD Dense
SLAM [5.709880146357355]
ニュートラルV-SLAMは,ニュートラル多分解能ボクセルをベースとした,新しい局所化とマッピングパイプラインである。
NeuV-SLAMは超高速収束とインクリメンタル展開機能によって特徴付けられる。
論文 参考訳(メタデータ) (2024-02-03T04:26:35Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - VGOS: Voxel Grid Optimization for View Synthesis from Sparse Inputs [9.374561178958404]
VGOSはスパースインプット(3-10ビュー)からの高速(3-5分)放射場再構成のためのアプローチ
周辺ボクセルの最適化を抑えることでオーバーフィッティングを防止できるインクリメンタルボクセルトレーニング戦略を導入する。
超高速収束によるスパース入力に対して,VGOSが最先端の性能を達成することを示す実験を行った。
論文 参考訳(メタデータ) (2023-04-26T08:52:55Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Differentiable Point-Based Radiance Fields for Efficient View Synthesis [57.56579501055479]
本稿では,効率的な新規ビュー合成のための微分可能レンダリングアルゴリズムを提案する。
我々の手法は、トレーニングと推論の両方において、NeRFよりも最大300倍高速である。
ダイナミックなシーンでは,STNeRFよりも2桁早く,ほぼインタラクティブなレートでレンダリングを行う。
論文 参考訳(メタデータ) (2022-05-28T04:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。