論文の概要: F$^{2}$-NeRF: Fast Neural Radiance Field Training with Free Camera
Trajectories
- arxiv url: http://arxiv.org/abs/2303.15951v1
- Date: Tue, 28 Mar 2023 13:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:07:29.340670
- Title: F$^{2}$-NeRF: Fast Neural Radiance Field Training with Free Camera
Trajectories
- Title(参考訳): F$^{2}$-NeRF:自由カメラ軌道を用いた高速神経放射場訓練
- Authors: Peng Wang, Yuan Liu, Zhaoxi Chen, Lingjie Liu, Ziwei Liu, Taku Komura,
Christian Theobalt, Wenping Wang
- Abstract要約: 本稿では,F2-NeRF(Fast-Free-NeRF)と呼ばれるグリッドベースの新しいNeRFについて述べる。
F2-NeRFは任意の入力カメラ軌道を可能にし、訓練に数分しかかからない。
- 参考スコア(独自算出の注目度): 100.37377892779654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel grid-based NeRF called F2-NeRF (Fast-Free-NeRF)
for novel view synthesis, which enables arbitrary input camera trajectories and
only costs a few minutes for training. Existing fast grid-based NeRF training
frameworks, like Instant-NGP, Plenoxels, DVGO, or TensoRF, are mainly designed
for bounded scenes and rely on space warping to handle unbounded scenes.
Existing two widely-used space-warping methods are only designed for the
forward-facing trajectory or the 360-degree object-centric trajectory but
cannot process arbitrary trajectories. In this paper, we delve deep into the
mechanism of space warping to handle unbounded scenes. Based on our analysis,
we further propose a novel space-warping method called perspective warping,
which allows us to handle arbitrary trajectories in the grid-based NeRF
framework. Extensive experiments demonstrate that F2-NeRF is able to use the
same perspective warping to render high-quality images on two standard datasets
and a new free trajectory dataset collected by us. Project page:
https://totoro97.github.io/projects/f2-nerf.
- Abstract(参考訳): 本稿では,新しいビュー合成のためのグリッドベースの新しいNeRFF2-NeRF(Fast-Free-NeRF)を提案する。
Instant-NGP、Plenoxels、DVGO、TensoRFといった既存の高速グリッドベースのNeRFトレーニングフレームワークは、主に有界シーン用に設計されており、無界シーンを扱うためにスペースワープに依存している。
既存の2つの空間ウォーピング法は前方の軌道や360度物体中心軌道のためにしか設計されていないが、任意の軌道を処理できない。
本稿では,境界のないシーンを扱うために,空間ウォーピングのメカニズムを深く掘り下げる。
そこで本研究では, グリッドベースのnrfフレームワークにおいて任意の軌道を処理できる, パースペクティブウォーピングと呼ばれる新しい空間ウォーピング法を提案する。
大規模な実験により、F2-NeRFは2つの標準データセットと、私たちによって収集された新しい自由軌跡データセットに高品質な画像をレンダリングするために、同じ視点のワープを利用できることが示された。
プロジェクトページ: https://totoro97.github.io/projects/f2-nerf。
関連論文リスト
- Aerial-NeRF: Adaptive Spatial Partitioning and Sampling for Large-Scale Aerial Rendering [10.340739248752516]
複雑な空中シーンを高精度でレンダリングするためのAerial-NeRFを提案する。
当社のモデルでは,複数の競合に比べて4倍以上の高速レンダリングを実現しています。
2つのパブリックな大規模空中データセットに対して、最先端の新たな結果が得られた。
論文 参考訳(メタデータ) (2024-05-10T02:57:02Z) - A General Implicit Framework for Fast NeRF Composition and Rendering [40.07666955244417]
我々は、NeRFオブジェクトを高速に作成するための一般的な暗黙パイプラインを提案する。
我々の研究はニューラル深さ場(NeDF)と呼ばれる新しい表面表現を導入している。
交叉ニューラルネットワークを利用して、明示的な空間構造に依存するのではなく、NeRFをアクセラレーションにクエリする。
論文 参考訳(メタデータ) (2023-08-09T02:27:23Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。