論文の概要: Zero NeRF: Registration with Zero Overlap
- arxiv url: http://arxiv.org/abs/2211.12544v1
- Date: Tue, 22 Nov 2022 19:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:04:42.459869
- Title: Zero NeRF: Registration with Zero Overlap
- Title(参考訳): Zero NeRF: Zero Overlapによる登録
- Authors: Casey Peat, Oliver Batchelor, Richard Green, James Atlas
- Abstract要約: 最小あるいはゼロの視覚対応でシーン表現をアライメントできる投影面登録方式を提案する。
我々は、このアライメントを実行するために、表面表現としてNeRFとNeRFレンダリングパイプラインを使用します。
提案手法の有効性を示すために,従来の手法では正確に登録できない無限小のオーバーラップを両面から実世界のシーンに登録する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Zero-NeRF, a projective surface registration method that, to the
best of our knowledge, offers the first general solution capable of alignment
between scene representations with minimal or zero visual correspondence. To do
this, we enforce consistency between visible surfaces of partial and complete
reconstructions, which allows us to constrain occluded geometry. We use a NeRF
as our surface representation and the NeRF rendering pipeline to perform this
alignment. To demonstrate the efficacy of our method, we register real-world
scenes from opposite sides with infinitesimal overlaps that cannot be
accurately registered using prior methods, and we compare these results against
widely used registration methods.
- Abstract(参考訳): zero-nerf(ゼロナーフ)は,視覚対応が最小限かゼロかのシーン表現間のアライメントが可能な,最初の汎用解を提供する射影面登録手法である。
これを実現するために、部分的および完全再構成の可視面間の整合性を強制し、閉包幾何を制約できる。
我々は、このアライメントを実行するために、表面表現としてNeRFとNeRFレンダリングパイプラインを使用します。
本手法の有効性を示すために,先行手法では正確には登録できない無限小重なりの両端から実世界のシーンを登録し,これらを広く用いられている登録手法と比較した。
関連論文リスト
- Neural Surface Detection for Unsigned Distance Fields [51.77214039267625]
我々は、UDFをローカルにSDFに変換するためのディープラーニングアプローチを導入し、既存のアルゴリズムで効果的に三角測量できるようにした。
既存の手法よりも表面検出の精度がよいことを示す。
また,UDF上で動作可能なデュアルメッシュ方式であるDualMeshUDFと併用して,この手法の柔軟性を示す。
論文 参考訳(メタデータ) (2024-07-25T20:31:40Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - Efficient Implicit Neural Reconstruction Using LiDAR [6.516471975863534]
本稿では, 微小なLiDAR点雲と粗度オドメトリーを用いて, 微小な暗黙的占有場を数分以内に効率的に再構築する手法を提案する。
我々の知る限り、この手法はLiDARのみの入力から暗黙のシーン表現を再構築する最初の方法である。
論文 参考訳(メタデータ) (2023-02-28T07:31:48Z) - nerf2nerf: Pairwise Registration of Neural Radiance Fields [38.13011152344739]
本稿では,古典的最適化に基づく局所的登録を拡張するニューラルネットワークのペア登録手法を提案する。
我々は、事前訓練されたNeRFモデルから蒸留した「地表場」の概念を紹介した。
トレーニング済みのNeRFシーンのデータセットを導入し,本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-03T06:04:59Z) - Semi-signed neural fitting for surface reconstruction from unoriented
point clouds [53.379712818791894]
より優れた符号付き距離場を再構成するためのSN-Fittingを提案する。
SSNフィッティングは半署名の監督と損失に基づく領域サンプリング戦略で構成されている。
我々は,SSN-Fittingが,異なる設定下で最先端の性能を達成することを示す実験を行う。
論文 参考訳(メタデータ) (2022-06-14T09:40:17Z) - A Deep-Discrete Learning Framework for Spherical Surface Registration [4.7633236054762875]
皮質表面の登録は神経画像解析の基本的なツールである。
本稿では,登録を多ラベル分類問題に変換する,教師なし学習に基づく新しいフレームワークを提案する。
実験により,提案するフレームワークは,最もポピュラーな古典的表面登録アルゴリズムと比較して,類似性やアラル歪みの点で競合的に動作することが示された。
論文 参考訳(メタデータ) (2022-03-24T11:47:11Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。