論文の概要: Block-NeRF: Scalable Large Scene Neural View Synthesis
- arxiv url: http://arxiv.org/abs/2202.05263v1
- Date: Thu, 10 Feb 2022 18:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 17:05:10.112176
- Title: Block-NeRF: Scalable Large Scene Neural View Synthesis
- Title(参考訳): Block-NeRF:スケーラブル大シーンニューラルビュー合成
- Authors: Matthew Tancik, Vincent Casser, Xinchen Yan, Sabeek Pradhan, Ben
Mildenhall, Pratul P. Srinivasan, Jonathan T. Barron, Henrik Kretzschmar
- Abstract要約: 大規模環境を表現可能なニューラルレージアンスフィールドの変種であるBlock-NeRFを提案する。
我々は、280万の画像からBlock-NeRFのグリッドを構築し、これまでで最大のニューラルシーン表現を作成します。
- 参考スコア(独自算出の注目度): 46.08297335205216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Block-NeRF, a variant of Neural Radiance Fields that can represent
large-scale environments. Specifically, we demonstrate that when scaling NeRF
to render city-scale scenes spanning multiple blocks, it is vital to decompose
the scene into individually trained NeRFs. This decomposition decouples
rendering time from scene size, enables rendering to scale to arbitrarily large
environments, and allows per-block updates of the environment. We adopt several
architectural changes to make NeRF robust to data captured over months under
different environmental conditions. We add appearance embeddings, learned pose
refinement, and controllable exposure to each individual NeRF, and introduce a
procedure for aligning appearance between adjacent NeRFs so that they can be
seamlessly combined. We build a grid of Block-NeRFs from 2.8 million images to
create the largest neural scene representation to date, capable of rendering an
entire neighborhood of San Francisco.
- Abstract(参考訳): 大規模環境を表現可能なニューラルレージアンスフィールドの変種であるBlock-NeRFを提案する。
具体的には、複数のブロックにまたがる都市規模のシーンをレンダリングするためにNeRFをスケールする場合、シーンを個別に訓練されたNeRFに分解することが不可欠であることを示す。
この分解はレンダリング時間をシーンサイズから切り離し、レンダリングを任意の規模の環境に拡大し、ブロックごとの環境更新を可能にする。
我々は、異なる環境条件下で数ヶ月にわたって取得したデータに対して、NeRFを堅牢にするために、いくつかのアーキテクチャ変更を採用する。
我々は,個々のNeRFに対して外観埋め込み,ポーズ改善,制御可能な露出を追加し,隣接するNeRF間の外観整合をシームレスに組み合わせるための手順を導入する。
我々は、280万の画像からBlock-NeRFのグリッドを構築し、これまでで最大のニューラルシーン表現を作成し、サンフランシスコの近所全体をレンダリングします。
関連論文リスト
- NeRFuser: Large-Scale Scene Representation by NeRF Fusion [35.749208740102546]
Neural Radiance Fields (NeRF)のような暗黙的な視覚表現の実用的な利点は、そのメモリ効率である。
既製のNeRFへのアクセスのみを前提としたNeRF登録とブレンディングのための新しいアーキテクチャであるNeRFuserを提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:05Z) - Pre-NeRF 360: Enriching Unbounded Appearances for Neural Radiance Fields [8.634008996263649]
我々は,NeRFアーキテクチャの性能向上のための新しいフレームワークを提案する。
我々のソリューションは、以前のバージョンのNeRFに悩まされていたいくつかの障害を克服します。
我々はN5k360データセットとして知られるNutrition5kデータセットの更新版を導入する。
論文 参考訳(メタデータ) (2023-03-21T23:29:38Z) - SinNeRF: Training Neural Radiance Fields on Complex Scenes from a Single
Image [85.43496313628943]
本稿では,一眼レフ(SinNeRF)フレームワークについて述べる。
SinNeRFは半教師付き学習プロセスを構築し,幾何学的擬似ラベルを導入・伝播する。
NeRF合成データセット、Local Light Field Fusionデータセット、DTUデータセットなど、複雑なシーンベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2022-04-02T19:32:42Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering [145.95688637309746]
本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
論文 参考訳(メタデータ) (2021-12-10T13:16:21Z) - Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance
Fields [45.84983186882732]
mip-NeRF"("mipmap")は、NeRFを拡張してシーンを継続的に価値あるスケールで表現します。
mip-NeRFは、光線の代わりにアンチエイリアスコニカルフラストを効率的にレンダリングすることで、不快なエイリアスアーティファクトを低減します。
NeRFと比較して、mip-NeRFはNeRFで提示されたデータセットでは平均エラー率を16%、そのデータセットでは60%削減する。
論文 参考訳(メタデータ) (2021-03-24T18:02:11Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。