論文の概要: BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering
- arxiv url: http://arxiv.org/abs/2112.05504v4
- Date: Tue, 9 May 2023 05:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 16:52:33.173642
- Title: BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering
- Title(参考訳): BungeeNeRF:超大規模シーンレンダリングのためのプログレッシブ神経放射場
- Authors: Yuanbo Xiangli, Linning Xu, Xingang Pan, Nanxuan Zhao, Anyi Rao,
Christian Theobalt, Bo Dai, Dahua Lin
- Abstract要約: 本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
- 参考スコア(独自算出の注目度): 145.95688637309746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural radiance fields (NeRF) has achieved outstanding performance in
modeling 3D objects and controlled scenes, usually under a single scale. In
this work, we focus on multi-scale cases where large changes in imagery are
observed at drastically different scales. This scenario vastly exists in
real-world 3D environments, such as city scenes, with views ranging from
satellite level that captures the overview of a city, to ground level imagery
showing complex details of an architecture; and can also be commonly identified
in landscape and delicate minecraft 3D models. The wide span of viewing
positions within these scenes yields multi-scale renderings with very different
levels of detail, which poses great challenges to neural radiance field and
biases it towards compromised results. To address these issues, we introduce
BungeeNeRF, a progressive neural radiance field that achieves level-of-detail
rendering across drastically varied scales. Starting from fitting distant views
with a shallow base block, as training progresses, new blocks are appended to
accommodate the emerging details in the increasingly closer views. The strategy
progressively activates high-frequency channels in NeRF's positional encoding
inputs and successively unfolds more complex details as the training proceeds.
We demonstrate the superiority of BungeeNeRF in modeling diverse multi-scale
scenes with drastically varying views on multiple data sources (city models,
synthetic, and drone captured data) and its support for high-quality rendering
in different levels of detail.
- Abstract(参考訳): ニューラルレイディアンス場(NeRF)は、3Dオブジェクトや制御シーンのモデリングにおいて、通常は1つのスケールで優れた性能を達成している。
本研究では,大規模な画像変化が著しく異なるスケールで観察されるマルチスケールケースに着目した。
このシナリオは、都市の風景のような現実世界の3d環境に広く存在し、都市の概観を捉えた衛星レベルから、建築の複雑な詳細を示す地上レベルの画像まで、様々な視点があり、ランドスケープやデリケートなminecraft 3dモデルでもよく見られる。
これらのシーンにおける観察位置の広い範囲は、非常に異なる詳細レベルを持つマルチスケールレンダリングをもたらし、神経放射野に大きな課題をもたらし、妥協された結果に向けてバイアスを与える。
これらの問題に対処するために、我々は、劇的に変化するスケールにわたって詳細レンダリングを実現するプログレッシブ神経放射場である BungeeNeRF を紹介した。
浅いベースブロックで遠くのビューを合わせることから始め、トレーニングが進むにつれて、より近いビューで新たな詳細に対応するために新しいブロックが追加される。
この戦略は、nerfの位置符号化入力の高周波チャネルを段階的に活性化し、トレーニングが進むにつれてより複雑な詳細を順次展開する。
本稿では,複数のデータソース(都市モデル,合成データ,ドローンキャプチャデータ)を劇的に異なるビューでモデル化し,高品質なレンダリングをサポートした多様なマルチスケールシーンにおける BungeeNeRF の優位性を実証する。
関連論文リスト
- Global-guided Focal Neural Radiance Field for Large-scale Scene Rendering [12.272724419136575]
大規模シーンの高忠実なレンダリングを実現するグローバル誘導焦点型ニューラルレイディアンス場(GF-NeRF)を提案する。
提案手法は,多種多様な大規模データセットに対して,高忠実で自然なレンダリング結果を実現する。
論文 参考訳(メタデータ) (2024-03-19T15:45:54Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - MuRF: Multi-Baseline Radiance Fields [117.55811938988256]
スパースビュー合成におけるフィードフォワードアプローチであるmulti-Baseline Radiance Fields(MuRF)を提案する。
MuRFは、複数の異なるベースライン設定で最先端のパフォーマンスを達成する。
また、Mip-NeRF 360データセット上でゼロショットの一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:56Z) - Strata-NeRF : Neural Radiance Fields for Stratified Scenes [29.58305675148781]
現実の世界では、複数のレベルでシーンをキャプチャし、レイヤー化されたキャプチャをもたらすかもしれません。
複数レベルのシーンを暗黙的にキャプチャする単一神経放射場であるStrata-NeRFを提案する。
Strata-NeRFは階層化されたシーンを効果的に捉え、アーティファクトを最小化し、高忠実度ビューを合成する。
論文 参考訳(メタデータ) (2023-08-20T18:45:43Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。