論文の概要: CityNeRF: Building NeRF at City Scale
- arxiv url: http://arxiv.org/abs/2112.05504v1
- Date: Fri, 10 Dec 2021 13:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 19:14:53.735807
- Title: CityNeRF: Building NeRF at City Scale
- Title(参考訳): CityNeRF: 都市規模でNeRFを構築する
- Authors: Yuanbo Xiangli, Linning Xu, Xingang Pan, Nanxuan Zhao, Anyi Rao,
Christian Theobalt, Bo Dai, Dahua Lin
- Abstract要約: 本研究では,NeRFモデルと学習セットを同期的に成長させる学習パラダイムであるCityNeRFを紹介する。
都市スケールの多様なシーンを大々的に異なる視点でモデル化する上で,CityNeRFの優位性を実証する。
- 参考スコア(独自算出の注目度): 144.0985231971134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Field (NeRF) has achieved outstanding performance in modeling
3D objects and controlled scenes, usually under a single scale. In this work,
we make the first attempt to bring NeRF to city-scale, with views ranging from
satellite-level that captures the overview of a city, to ground-level imagery
showing complex details of an architecture. The wide span of camera distance to
the scene yields multi-scale data with different levels of detail and spatial
coverage, which casts great challenges to vanilla NeRF and biases it towards
compromised results. To address these issues, we introduce CityNeRF, a
progressive learning paradigm that grows the NeRF model and training set
synchronously. Starting from fitting distant views with a shallow base block,
as training progresses, new blocks are appended to accommodate the emerging
details in the increasingly closer views. The strategy effectively activates
high-frequency channels in the positional encoding and unfolds more complex
details as the training proceeds. We demonstrate the superiority of CityNeRF in
modeling diverse city-scale scenes with drastically varying views, and its
support for rendering views in different levels of detail.
- Abstract(参考訳): neural radiance field (nerf)は、3dオブジェクトと制御されたシーンのモデリングにおいて、通常1つのスケールで優れた性能を達成している。
本研究では,NeRFを都市規模に展開する最初の試みとして,都市の全体像を捉えた衛星レベルから,建築の複雑な詳細を示す地上レベルの画像まで,さまざまな視点で紹介する。
カメラから現場までの距離が広いと、様々なレベルの細部と空間範囲のマルチスケールデータが得られるため、バニラ NeRF には大きな課題となり、妥協された結果に偏りが生じる。
このような問題に対処するために,我々はNeRFモデルとトレーニングセットを同期的に成長させる進歩的学習パラダイムであるCityNeRFを紹介した。
浅いベースブロックで遠くのビューを合わせることから始め、トレーニングが進むにつれて、より近いビューで新たな詳細に対応するために新しいブロックが追加される。
この戦略は、位置符号化における高周波チャネルを効果的に活性化し、トレーニングが進むにつれてより複雑な詳細を展開する。
我々は,多彩な視点を持つ多彩な都市スケールシーンのモデル化におけるcitynerfの優位性と,その詳細レベルでのビューのレンダリングのサポートを実証する。
関連論文リスト
- Global-guided Focal Neural Radiance Field for Large-scale Scene Rendering [12.272724419136575]
大規模シーンの高忠実なレンダリングを実現するグローバル誘導焦点型ニューラルレイディアンス場(GF-NeRF)を提案する。
提案手法は,多種多様な大規模データセットに対して,高忠実で自然なレンダリング結果を実現する。
論文 参考訳(メタデータ) (2024-03-19T15:45:54Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - MuRF: Multi-Baseline Radiance Fields [117.55811938988256]
スパースビュー合成におけるフィードフォワードアプローチであるmulti-Baseline Radiance Fields(MuRF)を提案する。
MuRFは、複数の異なるベースライン設定で最先端のパフォーマンスを達成する。
また、Mip-NeRF 360データセット上でゼロショットの一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:56Z) - Strata-NeRF : Neural Radiance Fields for Stratified Scenes [29.58305675148781]
現実の世界では、複数のレベルでシーンをキャプチャし、レイヤー化されたキャプチャをもたらすかもしれません。
複数レベルのシーンを暗黙的にキャプチャする単一神経放射場であるStrata-NeRFを提案する。
Strata-NeRFは階層化されたシーンを効果的に捉え、アーティファクトを最小化し、高忠実度ビューを合成する。
論文 参考訳(メタデータ) (2023-08-20T18:45:43Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。