論文の概要: Strata-NeRF : Neural Radiance Fields for Stratified Scenes
- arxiv url: http://arxiv.org/abs/2308.10337v1
- Date: Sun, 20 Aug 2023 18:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 15:58:08.787533
- Title: Strata-NeRF : Neural Radiance Fields for Stratified Scenes
- Title(参考訳): Strata-NeRF : 成層圏のニューラルラジアンス場
- Authors: Ankit Dhiman, Srinath R, Harsh Rangwani, Rishubh Parihar, Lokesh R
Boregowda, Srinath Sridhar and R Venkatesh Babu
- Abstract要約: 現実の世界では、複数のレベルでシーンをキャプチャし、レイヤー化されたキャプチャをもたらすかもしれません。
複数レベルのシーンを暗黙的にキャプチャする単一神経放射場であるStrata-NeRFを提案する。
Strata-NeRFは階層化されたシーンを効果的に捉え、アーティファクトを最小化し、高忠実度ビューを合成する。
- 参考スコア(独自算出の注目度): 29.58305675148781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Field (NeRF) approaches learn the underlying 3D
representation of a scene and generate photo-realistic novel views with high
fidelity. However, most proposed settings concentrate on modelling a single
object or a single level of a scene. However, in the real world, we may capture
a scene at multiple levels, resulting in a layered capture. For example,
tourists usually capture a monument's exterior structure before capturing the
inner structure. Modelling such scenes in 3D with seamless switching between
levels can drastically improve immersive experiences. However, most existing
techniques struggle in modelling such scenes. We propose Strata-NeRF, a single
neural radiance field that implicitly captures a scene with multiple levels.
Strata-NeRF achieves this by conditioning the NeRFs on Vector Quantized (VQ)
latent representations which allow sudden changes in scene structure. We
evaluate the effectiveness of our approach in multi-layered synthetic dataset
comprising diverse scenes and then further validate its generalization on the
real-world RealEstate10K dataset. We find that Strata-NeRF effectively captures
stratified scenes, minimizes artifacts, and synthesizes high-fidelity views
compared to existing approaches.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)アプローチは、シーンの基礎となる3次元表現を学習し、忠実度の高いフォトリアリスティック・ノベルビューを生成する。
しかし、提案されたほとんどの設定は、1つのオブジェクトまたは1つのシーンの1つのレベルをモデル化することに集中する。
しかし、現実の世界では、複数のレベルでシーンをキャプチャし、レイヤー化されたキャプチャをもたらす可能性がある。
例えば、観光客は通常、内部構造をとらえる前に記念碑の外部構造を捕獲する。
このようなシーンを3dでモデリングし、レベルをシームレスに切り替えることで、没入体験を劇的に改善することができる。
しかし、既存の技法の多くはそのような場面のモデル化に苦慮している。
複数レベルのシーンを暗黙的にキャプチャする単一神経放射場であるStrata-NeRFを提案する。
Strata-NeRFは、Vector Quantized (VQ)潜在表現にNeRFを条件付け、シーン構造を突然変化させる。
多様なシーンからなる多層合成データセットにおける本手法の有効性を評価し,実世界のrealestate10kデータセットの一般化をさらに検証した。
Strata-NeRFは階層化されたシーンを効果的に捉え、アーティファクトを最小化し、既存のアプローチと比較して高忠実なビューを合成する。
関連論文リスト
- SCARF: Scalable Continual Learning Framework for Memory-efficient Multiple Neural Radiance Fields [9.606992888590757]
我々は,多層パーセプトロンを用いてシーンの密度と放射場を暗黙の関数としてモデル化するニューラルレージアンス場(NeRF)を構築した。
本研究では, 既往のシーンの放射界知識を新しいモデルに転送するための, 不確実な表面知識蒸留戦略を提案する。
実験の結果,提案手法はNeRF-Synthetic, LLFF, TanksAndTemplesデータセット上での連続学習NeRFの最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-09-06T03:36:12Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - NeRF On-the-go: Exploiting Uncertainty for Distractor-free NeRFs in the Wild [55.154625718222995]
我々は,複雑なシーンにおける新規ビューのロバストな合成を可能にする,シンプルで効果的な方法であるNeRF On-the-goを紹介する。
本手法は,最先端技術よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-05-29T02:53:40Z) - SceneRF: Self-Supervised Monocular 3D Scene Reconstruction with Radiance
Fields [19.740018132105757]
SceneRFは、画像列のみを用いた自己教師付き単眼シーン再構築法である。
推測において、単一の入力画像は、融合した新しい深度ビューを幻覚させ、3Dシーンの再構成を得るのに十分である。
論文 参考訳(メタデータ) (2022-12-05T18:59:57Z) - ViewNeRF: Unsupervised Viewpoint Estimation Using Category-Level Neural
Radiance Fields [35.89557494372891]
ニューラルラジアンス場に基づく視点推定法であるViewNeRFを導入する。
提案手法は,条件付きNeRFと視点予測器とシーンエンコーダを組み合わせた合成手法を用いて解析を行う。
本モデルでは,合成データセットと実データセットの競合結果を示す。
論文 参考訳(メタデータ) (2022-12-01T11:16:11Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering [145.95688637309746]
本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
論文 参考訳(メタデータ) (2021-12-10T13:16:21Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。