論文の概要: GNeRF: GAN-based Neural Radiance Field without Posed Camera
- arxiv url: http://arxiv.org/abs/2103.15606v1
- Date: Mon, 29 Mar 2021 13:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:50:17.853445
- Title: GNeRF: GAN-based Neural Radiance Field without Posed Camera
- Title(参考訳): GNeRF:Posed Cameraを使わずにGANベースのニューラルラジアンスフィールド
- Authors: Quan Meng, Anpei Chen, Haimin Luo, Minye Wu, Hao Su, Lan Xu, Xuming
He, Jingyi Yu
- Abstract要約: gnerf(generative adversarial networks (gan) とニューラルネットワークのラジアンスフィールド再構成を組み合わせるためのフレームワーク)を,未知のカメラポーズでさえも複雑なシナリオで導入する。
提案手法は, 従来は非常に難易度の高い, 繰り返しパターンや低テクスチャの場面において, ベースラインを良好に向上させる。
- 参考スコア(独自算出の注目度): 67.80805274569354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce GNeRF, a framework to marry Generative Adversarial Networks
(GAN) with Neural Radiance Field reconstruction for the complex scenarios with
unknown and even randomly initialized camera poses. Recent NeRF-based advances
have gained popularity for remarkable realistic novel view synthesis. However,
most of them heavily rely on accurate camera poses estimation, while few recent
methods can only optimize the unknown camera poses in roughly forward-facing
scenes with relatively short camera trajectories and require rough camera poses
initialization. Differently, our GNeRF only utilizes randomly initialized poses
for complex outside-in scenarios. We propose a novel two-phases end-to-end
framework. The first phase takes the use of GANs into the new realm for coarse
camera poses and radiance fields jointly optimization, while the second phase
refines them with additional photometric loss. We overcome local minima using a
hybrid and iterative optimization scheme. Extensive experiments on a variety of
synthetic and natural scenes demonstrate the effectiveness of GNeRF. More
impressively, our approach outperforms the baselines favorably in those scenes
with repeated patterns or even low textures that are regarded as extremely
challenging before.
- Abstract(参考訳): gnerf(generative adversarial networks (gan) とニューラルネットワークのラジアンスフィールド再構成を融合したフレームワークで、未知の、あるいはランダムに初期化されたカメラポーズを持つ複雑なシナリオについて紹介する。
最近のNeRFベースの進歩は、目覚ましいリアルなノベルビューの合成で人気を博している。
しかし、ほとんどが正確なカメラポーズの推定に大きく依存しているが、比較的短いカメラ軌跡を持つほぼ前方のシーンで未知のカメラポーズを最適化し、粗いカメラポーズの初期化を必要とする最近の方法はほとんどない。
異なることに、GNeRFは複雑な外付けシナリオに対してランダムに初期化されたポーズのみを使用する。
本稿では,新しい2段階のエンドツーエンドフレームワークを提案する。
第1フェーズでは、粗いカメラポーズと放射場を共同最適化するための新しい領域にGANを取り入れ、第2フェーズでは、さらなる光損失でそれらを洗練する。
ハイブリッドおよび反復最適化方式を用いて局所最小化を克服する。
様々な合成シーンと自然シーンの大規模な実験は、GNeRFの有効性を実証している。
より印象的なことに、我々のアプローチは、これまで非常に難しいと見なされた繰り返しパターンや低テクスチャを持つシーンにおいて、ベースラインよりも優れたのです。
関連論文リスト
- CT-NeRF: Incremental Optimizing Neural Radiance Field and Poses with Complex Trajectory [12.460959809597213]
ポーズや深度入力を伴わないRGB画像のみを用いた逐次再構成最適化パイプラインであるCT-NeRFを提案する。
実世界の2つのデータセットであるNeRFBusterとFree-DatasetにおけるCT-NeRFの性能を評価する。
論文 参考訳(メタデータ) (2024-04-22T06:07:06Z) - CBARF: Cascaded Bundle-Adjusting Neural Radiance Fields from Imperfect
Camera Poses [23.427859480410934]
本稿では,カメラポーズの同時最適化を可能にする新しい3次元再構成フレームワークを提案する。
簡単に言えば、我々のフレームワークは、粗い方法でカメラのポーズを最適化し、修正されたポーズに基づいてシーンを再構築する。
CBARFモデルはポーズ最適化と新しいビュー合成の両方において最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2023-10-15T08:34:40Z) - Pose-Free Neural Radiance Fields via Implicit Pose Regularization [117.648238941948]
IR-NeRFは、暗黙的なポーズ規則化を導入し、ポーズ推定器を非ポーズの実像で精査する革新的なポーズフリー神経放射場である。
特定のシーンの2D画像の収集により、IR-NeRFはシーンの特徴を記憶するシーンコードブックを構築し、シーン固有のポーズ分布を前もって暗黙的にキャプチャする。
論文 参考訳(メタデータ) (2023-08-29T06:14:06Z) - LU-NeRF: Scene and Pose Estimation by Synchronizing Local Unposed NeRFs [56.050550636941836]
NeRFモデルが野生で広く展開されるのを防ぐ重要な障害は、正確なカメラのポーズに依存することである。
カメラのポーズとニューラルフィールドを協調して推定するLU-NeRFという新しい手法を提案する。
LU-NeRFパイプラインは、ポーズに制限的な仮定を加えることなく、未提案のNeRFに対する事前試みより優れることを示す。
論文 参考訳(メタデータ) (2023-06-08T17:56:22Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。