論文の概要: Neural Kernel Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2305.19590v2
- Date: Fri, 9 Jun 2023 09:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 16:13:37.994974
- Title: Neural Kernel Surface Reconstruction
- Title(参考訳): 神経核表面再構成
- Authors: Jiahui Huang, Zan Gojcic, Matan Atzmon, Or Litany, Sanja Fidler,
Francis Williams
- Abstract要約: 本稿では,大規模でスパースでノイズの多い点雲から3次元暗示面を再構成する新しい手法を提案する。
我々のアプローチは、最近導入されたNeural Kernel Fields表現に基づいている。
- 参考スコア(独自算出の注目度): 80.51581494300423
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a novel method for reconstructing a 3D implicit surface from a
large-scale, sparse, and noisy point cloud. Our approach builds upon the
recently introduced Neural Kernel Fields (NKF) representation. It enjoys
similar generalization capabilities to NKF, while simultaneously addressing its
main limitations: (a) We can scale to large scenes through compactly supported
kernel functions, which enable the use of memory-efficient sparse linear
solvers. (b) We are robust to noise, through a gradient fitting solve. (c) We
minimize training requirements, enabling us to learn from any dataset of dense
oriented points, and even mix training data consisting of objects and scenes at
different scales. Our method is capable of reconstructing millions of points in
a few seconds, and handling very large scenes in an out-of-core fashion. We
achieve state-of-the-art results on reconstruction benchmarks consisting of
single objects, indoor scenes, and outdoor scenes.
- Abstract(参考訳): 本稿では,大規模でスパースでノイズの多い点雲から3次元暗示面を再構成する新しい手法を提案する。
我々のアプローチは、最近導入されたNeural Kernel Fields (NKF) 表現に基づいている。
NKFと同様の一般化機能を持ち、同時に主な制限に対処する。
(a) コンパクトにサポートされたカーネル関数によって大きなシーンにスケールできるため、メモリ効率の高いスパース線形解法が利用できる。
(b)勾配フィッティング解を用いて、雑音に対して頑健である。
(c) トレーニング要件を最小限に抑え、高密度な指向ポイントのデータセットから学び、さまざまなスケールでオブジェクトとシーンからなるトレーニングデータを混在させることができます。
提案手法は,数秒で数百万のポイントを再構築し,非常に大きなシーンをアウトオブコアで処理することができる。
我々は,単一オブジェクト,屋内シーン,屋外シーンからなる再構築ベンチマークの最先端結果を得た。
関連論文リスト
- MultiPull: Detailing Signed Distance Functions by Pulling Multi-Level Queries at Multi-Step [48.812388649469106]
粗いSDFを粗い値から細かい値に最適化することにより,原点雲から多スケール暗黙フィールドを学習する手法を提案する。
広く使われているオブジェクトとシーンのベンチマーク実験により,この手法は表面再構成における最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-02T10:50:22Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - NeuralBlox: Real-Time Neural Representation Fusion for Robust Volumetric
Mapping [29.3378360000956]
本稿では,ニューラル暗黙表現の最近の進歩を活かした新しい3次元マッピング手法を提案する。
ニューラルな暗黙表現をインクリメンタルに構築し、更新するための融合戦略とトレーニングパイプラインを提案する。
インクリメンタルに構築された占有マップは,CPU上でもリアルタイムに取得可能であることを示す。
論文 参考訳(メタデータ) (2021-10-18T15:45:05Z) - RetrievalFuse: Neural 3D Scene Reconstruction with a Database [34.44425679892233]
トレーニングデータベースからシーンジオメトリを直接活用する新しい手法を紹介します。
まず,シーンデータベースから上位k個のボリュームチャンクを検索して構築した3次元シーンの初期推定値の合成を学習する。
これらの候補は最終シーン生成に洗練され、候補から最も一貫性のある幾何集合を効果的に選択できる注意に基づく改良がなされる。
本研究では,3次元超解像と疎点雲表面再構成のためのデータベースを用いて,神経シーンの再構成を実証する。
論文 参考訳(メタデータ) (2021-03-31T18:00:09Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。