論文の概要: NoPe-NeRF: Optimising Neural Radiance Field with No Pose Prior
- arxiv url: http://arxiv.org/abs/2212.07388v2
- Date: Sun, 2 Apr 2023 09:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 23:30:29.733622
- Title: NoPe-NeRF: Optimising Neural Radiance Field with No Pose Prior
- Title(参考訳): NoPe-NeRF: プライマリのないニューラルラジアンスフィールドの最適化
- Authors: Wenjing Bian, Zirui Wang, Kejie Li, Jia-Wang Bian, Victor Adrian
Prisacariu
- Abstract要約: 事前に計算されたカメラポーズを使わずにニューラルレージアンスフィールド(NeRF)を訓練することは困難である。
この方向の最近の進歩は、前向きのシーンでNeRFとカメラのポーズを共同で最適化する可能性を示している。
我々は、歪まない単分子深度を組み込むことで、この問題に対処する。
これらの先行は、トレーニング中にスケールとシフトパラメータを補正することで生成され、連続するフレーム間の相対的なポーズを制約することができる。
- 参考スコア(独自算出の注目度): 22.579857008706206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a Neural Radiance Field (NeRF) without pre-computed camera poses is
challenging. Recent advances in this direction demonstrate the possibility of
jointly optimising a NeRF and camera poses in forward-facing scenes. However,
these methods still face difficulties during dramatic camera movement. We
tackle this challenging problem by incorporating undistorted monocular depth
priors. These priors are generated by correcting scale and shift parameters
during training, with which we are then able to constrain the relative poses
between consecutive frames. This constraint is achieved using our proposed
novel loss functions. Experiments on real-world indoor and outdoor scenes show
that our method can handle challenging camera trajectories and outperforms
existing methods in terms of novel view rendering quality and pose estimation
accuracy. Our project page is https://nope-nerf.active.vision.
- Abstract(参考訳): 事前に計算されたカメラポーズを使わずにニューラルレージアンスフィールド(NeRF)を訓練することは困難である。
この方向の最近の進歩は、前方のシーンでNeRFとカメラのポーズを共同で最適化する可能性を示している。
しかし、これらの手法はなお、ドラマチックなカメラの動きにおいて困難に直面している。
我々は,この難問に未解決の単眼深度を前もって取り組むことで対処する。
これらのプリエントはトレーニング中にスケールパラメータとシフトパラメータを補正し、連続したフレーム間で相対的なポーズを制約することで生成される。
この制約は提案する新しい損失関数を用いて達成される。
実世界の屋内および屋外のシーンにおける実験により,本手法は難易度の高いカメラトラジェクトリを処理し,新しいビューレンダリング品質と推定精度で既存手法より優れることが示された。
私たちのプロジェクトページはhttps://nope-nerf.active.visionです。
関連論文リスト
- COLMAP-Free 3D Gaussian Splatting [88.420322646756]
本稿では,SfM前処理を使わずに新しいビュー合成を実現する手法を提案する。
入力フレームを逐次的に処理し、一度に1つの入力フレームを取ることで3Dガウスを段階的に成長させる。
提案手法は, 映像合成とカメラポーズ推定において, 大きな動き変化下での従来手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-12-12T18:39:52Z) - IL-NeRF: Incremental Learning for Neural Radiance Fields with Camera
Pose Alignment [12.580584725107173]
インクリメンタルなNeRFトレーニングのための新しいフレームワークであるIL-NeRFを提案する。
IL-NeRFは、インクリメンタルなNeRFトレーニングを処理し、ベースラインを最大54.04%のレンダリング品質で上回ります。
論文 参考訳(メタデータ) (2023-12-10T04:12:27Z) - CBARF: Cascaded Bundle-Adjusting Neural Radiance Fields from Imperfect
Camera Poses [23.427859480410934]
本稿では,カメラポーズの同時最適化を可能にする新しい3次元再構成フレームワークを提案する。
簡単に言えば、我々のフレームワークは、粗い方法でカメラのポーズを最適化し、修正されたポーズに基づいてシーンを再構築する。
CBARFモデルはポーズ最適化と新しいビュー合成の両方において最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2023-10-15T08:34:40Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - SAMURAI: Shape And Material from Unconstrained Real-world Arbitrary
Image collections [49.3480550339732]
完全に未知のキャプチャ条件下でのオブジェクトの逆レンダリングは、コンピュータビジョンとグラフィックスにおける根本的な課題である。
形状, BRDF, 画像当たりのカメラのポーズと照明を推定するための共同最適化フレームワークを提案する。
本手法は,オブジェクトのオンライン画像収集に利用し,AR/VRなどのいくつかのユースケースに対して,再生可能な3Dアセットを生成する。
論文 参考訳(メタデータ) (2022-05-31T13:16:48Z) - GNeRF: GAN-based Neural Radiance Field without Posed Camera [67.80805274569354]
gnerf(generative adversarial networks (gan) とニューラルネットワークのラジアンスフィールド再構成を組み合わせるためのフレームワーク)を,未知のカメラポーズでさえも複雑なシナリオで導入する。
提案手法は, 従来は非常に難易度の高い, 繰り返しパターンや低テクスチャの場面において, ベースラインを良好に向上させる。
論文 参考訳(メタデータ) (2021-03-29T13:36:38Z) - PhotoApp: Photorealistic Appearance Editing of Head Portraits [97.23638022484153]
本稿では,ポートレート画像におけるカメラ視点とシーン照明の高品質な直感的編集手法を提案する。
ほとんどの編集アプローチは、光やカメラステージといった設定でキャプチャされたトレーニングデータを使用した教師あり学習に依存している。
StyleGANの潜在空間で学習する監督問題を設計します。
これは、教師付き学習と生成的敵対的モデリングのベストを組み合わせる。
論文 参考訳(メタデータ) (2021-03-13T08:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。