論文の概要: CF-NeRF: Camera Parameter Free Neural Radiance Fields with Incremental
Learning
- arxiv url: http://arxiv.org/abs/2312.08760v1
- Date: Thu, 14 Dec 2023 09:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 23:13:08.956278
- Title: CF-NeRF: Camera Parameter Free Neural Radiance Fields with Incremental
Learning
- Title(参考訳): CF-NeRF:インクリメンタル学習によるカメラパラメータフリーニューラル放射場
- Authors: Qingsong Yan, Qiang Wang, Kaiyong Zhao, Jie Chen, Bo Li, Xiaowen Chu,
Fei Deng
- Abstract要約: 我々は、新しいアンダーラインカメラパラメーターUnderlinefree Neural Radiance Field (CF-NeRF)を提案する。
CF-NeRFは3次元表現を漸進的に再構成し、動きからインクリメンタル構造にインスパイアされたカメラパラメータを復元する。
その結果、CF-NeRFはカメラ回転に頑健であり、事前情報や制約を伴わずに最先端の結果が得られることを示した。
- 参考スコア(独自算出の注目度): 23.080474939586654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) have demonstrated impressive performance in
novel view synthesis. However, NeRF and most of its variants still rely on
traditional complex pipelines to provide extrinsic and intrinsic camera
parameters, such as COLMAP. Recent works, like NeRFmm, BARF, and L2G-NeRF,
directly treat camera parameters as learnable and estimate them through
differential volume rendering. However, these methods work for forward-looking
scenes with slight motions and fail to tackle the rotation scenario in
practice. To overcome this limitation, we propose a novel \underline{c}amera
parameter \underline{f}ree neural radiance field (CF-NeRF), which incrementally
reconstructs 3D representations and recovers the camera parameters inspired by
incremental structure from motion (SfM). Given a sequence of images, CF-NeRF
estimates the camera parameters of images one by one and reconstructs the scene
through initialization, implicit localization, and implicit optimization. To
evaluate our method, we use a challenging real-world dataset NeRFBuster which
provides 12 scenes under complex trajectories. Results demonstrate that CF-NeRF
is robust to camera rotation and achieves state-of-the-art results without
providing prior information and constraints.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、新しいビュー合成において優れた性能を示した。
しかし、NeRFとその変種のほとんどは、COLMAPのような外在的および内在的なカメラパラメータを提供するために、従来の複雑なパイプラインに依存している。
NeRFmm、BARF、L2G-NeRFといった最近の研究は、カメラパラメータを直接学習可能なものとして扱い、差分ボリュームレンダリングによってそれらを推定している。
しかし、これらの手法は、わずかに動きのある前方のシーンで動作し、実際に回転シナリオに対処できない。
この制限を克服するために,3次元表現を漸進的に再構成し,運動からインクリメンタル構造にインスパイアされたカメラパラメータを回復する,新しい\underline{c}ameraパラメータ \underline{f}ree neural radiance field (cf-nerf)を提案する。
CF-NeRFは画像のカメラパラメータを1つずつ推定し、初期化、暗黙の局所化、暗黙の最適化によってシーンを再構築する。
提案手法の評価には,複雑な路面下で12のシーンを提供する,現実的なデータセットNeRFBusterを用いる。
その結果、CF-NeRFはカメラ回転に頑健であり、事前情報や制約を伴わずに最先端の結果が得られることを示した。
関連論文リスト
- LuSh-NeRF: Lighting up and Sharpening NeRFs for Low-light Scenes [38.59630957057759]
我々は,手持ちの低照度画像群からクリーンでシャープなNeRFを再構成できるLush-NeRFという新しいモデルを提案する。
LuSh-NeRFはシーン表現からノイズを分離するScene-Noise Decompositionモジュールを含む。
実験により、LuSh-NeRFは既存のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T07:22:31Z) - CT-NeRF: Incremental Optimizing Neural Radiance Field and Poses with Complex Trajectory [12.460959809597213]
ポーズや深度入力を伴わないRGB画像のみを用いた逐次再構成最適化パイプラインであるCT-NeRFを提案する。
実世界の2つのデータセットであるNeRFBusterとFree-DatasetにおけるCT-NeRFの性能を評価する。
論文 参考訳(メタデータ) (2024-04-22T06:07:06Z) - USB-NeRF: Unrolling Shutter Bundle Adjusted Neural Radiance Fields [7.671858441929298]
ニューラルラジアンスフィールド(USB-NeRF)のアンローリングシャッターバンドルについて提案する。
USB-NeRFは、回転シャッター歪みを補正し、NeRFの枠組みの下で同時に正確なカメラモーション軌跡を復元することができる。
我々のアルゴリズムは、RS画像のシーケンスから高忠実度高フレームレートのグローバルシャッタービデオの復元にも利用できる。
論文 参考訳(メタデータ) (2023-10-04T09:51:58Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - CamP: Camera Preconditioning for Neural Radiance Fields [56.46526219931002]
NeRFは、オブジェクトと大規模シーンの高忠実度3Dシーン再構成を得るために最適化することができる。
外部および固有のカメラパラメータは通常、NeRFの前処理ステップとしてStructure-from-Motion (SfM)法を用いて推定される。
本稿では,カメラパラメータ間の相関をなくし,その効果を正規化するホワイトニング変換を代用問題として提案する。
論文 参考訳(メタデータ) (2023-08-21T17:59:54Z) - NeRFtrinsic Four: An End-To-End Trainable NeRF Jointly Optimizing
Diverse Intrinsic and Extrinsic Camera Parameters [7.165373389474194]
ニューラル放射場(NeRF)を用いた新しいビュー合成は、新しい視点から高品質な画像を生成する最先端技術である。
カメラパラメータとNeRFの結合最適化に関する最近の研究は、ノイズ外在カメラパラメータの精製に重点を置いている。
我々はこれらの制限に対処するために、NeRFtrinsic Fourと呼ばれる新しいエンドツーエンドトレーニング可能なアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-16T15:44:31Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z) - NeRF--: Neural Radiance Fields Without Known Camera Parameters [31.01560143595185]
本稿では、カメラのポーズや内在性のない2次元画像からの新しいビュー合成(NVS)問題に取り組む。
RGB画像のみのNeRFモデルをトレーニングするためのエンドツーエンドのフレームワーク「NeRF--」を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:52:34Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。