論文の概要: VF-NeRF: Viewshed Fields for Rigid NeRF Registration
- arxiv url: http://arxiv.org/abs/2404.03349v1
- Date: Thu, 4 Apr 2024 10:30:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 15:01:15.976898
- Title: VF-NeRF: Viewshed Fields for Rigid NeRF Registration
- Title(参考訳): VF-NeRF: Rigid NeRF登録のための視野
- Authors: Leo Segre, Shai Avidan,
- Abstract要約: 3Dシーンの登録は、コンピュータビジョンの基本的な問題であり、2つのシーン間で最高の6-DoFアライメントを求める。
本稿では,オリジナルカメラの位置が与えられない場合の2つのNeRF間の剛性登録の問題について考察する。
これは暗黙の関数で、3Dポイントごとに元のカメラで見る確率を決定するものです。
- 参考スコア(独自算出の注目度): 12.308036453869033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene registration is a fundamental problem in computer vision that seeks the best 6-DoF alignment between two scenes. This problem was extensively investigated in the case of point clouds and meshes, but there has been relatively limited work regarding Neural Radiance Fields (NeRF). In this paper, we consider the problem of rigid registration between two NeRFs when the position of the original cameras is not given. Our key novelty is the introduction of Viewshed Fields (VF), an implicit function that determines, for each 3D point, how likely it is to be viewed by the original cameras. We demonstrate how VF can help in the various stages of NeRF registration, with an extensive evaluation showing that VF-NeRF achieves SOTA results on various datasets with different capturing approaches such as LLFF and Objaverese.
- Abstract(参考訳): 3Dシーンの登録は、コンピュータビジョンの基本的な問題であり、2つのシーン間で最高の6-DoFアライメントを求める。
この問題は点雲やメッシュの場合に広く研究されたが、ニューラル放射場(NeRF)に関する研究は比較的限られている。
本稿では,オリジナルカメラの位置が与えられない場合の2つのNeRF間の剛性登録の問題について考察する。
これは暗黙の関数で、3Dポイントごとに元のカメラで見る確率を決定するものです。
我々は,VFがNeRF登録の様々な段階においてどのように役立つかを示し,VF-NeRFがLLFFやObjavereseなどの異なるキャプチャ手法を用いて,様々なデータセット上でSOTA結果を達成することを示す。
関連論文リスト
- IFFNeRF: Initialisation Free and Fast 6DoF pose estimation from a single image and a NeRF model [17.202161109957608]
IFFNeRFを導入し、所定の画像の6自由度カメラポーズを推定する。
IFFNeRFは特にリアルタイムに動作するように設計されており、最初のポーズ推定の必要性を排除している。
論文 参考訳(メタデータ) (2024-03-19T12:36:51Z) - DReg-NeRF: Deep Registration for Neural Radiance Fields [66.69049158826677]
我々は,人間の介入なしにオブジェクト中心のアノテートシーンにおけるNeRF登録問題を解くためにDReg-NeRFを提案する。
提案手法は,SOTAポイントクラウド登録方式を大きなマージンで打ち負かす。
論文 参考訳(メタデータ) (2023-08-18T08:37:49Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - DoF-NeRF: Depth-of-Field Meets Neural Radiance Fields [23.125182292913003]
そこで我々は,Def-NeRFを導入し,Def効果をシミュレートする新しいニューラルネットワーク手法を提案する。
DoF-NeRFは、明示的な開口モデリングから恩恵を受け、仮想開口と焦点パラメータを調整することで、DoF効果を直接操作できる。
合成および実世界のデータセットの実験により、DoF-NeRFは、オールインフォーカス設定でNeRFと互換性があるだけでなく、浅いDoF入力で条件付けられたオールインフォーカスの新規ビューを合成できることが示されている。
論文 参考訳(メタデータ) (2022-08-01T15:53:14Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。