論文の概要: Hi-Map: Hierarchical Factorized Radiance Field for High-Fidelity
Monocular Dense Mapping
- arxiv url: http://arxiv.org/abs/2401.03203v1
- Date: Sat, 6 Jan 2024 12:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 19:48:24.995414
- Title: Hi-Map: Hierarchical Factorized Radiance Field for High-Fidelity
Monocular Dense Mapping
- Title(参考訳): ハイマップ:高忠実度モノクルデンスマッピングのための階層的分解放射場
- Authors: Tongyan Hua, Haotian Bai, Zidong Cao, Ming Liu, Dacheng Tao and Lin
Wang
- Abstract要約: ニューラルラジアンス場(NeRF)に基づく新しいモノクリン高密度マッピング手法であるHi-Mapを導入する。
ハイマップは、RGB入力のみを用いた効率的かつ高忠実なマッピングを実現する能力において例外的である。
- 参考スコア(独自算出の注目度): 51.739466714312805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce Hi-Map, a novel monocular dense mapping approach
based on Neural Radiance Field (NeRF). Hi-Map is exceptional in its capacity to
achieve efficient and high-fidelity mapping using only posed RGB inputs. Our
method eliminates the need for external depth priors derived from e.g., a depth
estimation model. Our key idea is to represent the scene as a hierarchical
feature grid that encodes the radiance and then factorizes it into feature
planes and vectors. As such, the scene representation becomes simpler and more
generalizable for fast and smooth convergence on new observations. This allows
for efficient computation while alleviating noise patterns by reducing the
complexity of the scene representation. Buttressed by the hierarchical
factorized representation, we leverage the Sign Distance Field (SDF) as a proxy
of rendering for inferring the volume density, demonstrating high mapping
fidelity. Moreover, we introduce a dual-path encoding strategy to strengthen
the photometric cues and further boost the mapping quality, especially for the
distant and textureless regions. Extensive experiments demonstrate our method's
superiority in geometric and textural accuracy over the state-of-the-art
NeRF-based monocular mapping methods.
- Abstract(参考訳): 本稿では,ニューラルレージアンス場(NeRF)に基づく新しいモノクリン高密度マッピング手法であるHi-Mapを紹介する。
ハイマップは、RGB入力のみを用いた効率的かつ高忠実なマッピングを実現する能力において例外的である。
提案手法は,例えば深度推定モデルから抽出した外部深度推定の必要性を解消する。
私たちのキーとなるアイデアは、シーンを階層的な特徴グリッドとして表現し、放射を符号化し、特徴平面とベクトルに分解することです。
そのため、シーン表現はより単純でより一般化され、新しい観測における高速で滑らかな収束が可能となる。
これにより、シーン表現の複雑さを減らし、ノイズパターンを緩和しながら効率的な計算が可能になる。
階層的因子化表現(hierarchical factorized representation)により、ボリューム密度を推定するレンダリングのプロキシとしてSign Distance Field(SDF)を活用し、高いマッピング忠実度を示す。
さらに、特に遠方およびテクスチャのない領域において、測光手がかりを強化し、さらにマッピング品質を高めるためにデュアルパス符号化戦略を導入する。
最新のNeRFを用いた単分子マッピング法よりも幾何的およびテクスチャ的精度が優れていることを示す。
関連論文リスト
- OG-Mapping: Octree-based Structured 3D Gaussians for Online Dense Mapping [19.176488228253483]
3DGSは最近、RGB-Dオンライン高密度マッピングの有望な進歩を実証した。
既存の手法では、マップのデシフィケーションを行うためにピクセルごとの奥行きを過度に頼っている。
スパースオクツリーの頑丈なシーン構造表現機能を活用したOG-Mappingを提案する。
論文 参考訳(メタデータ) (2024-08-30T12:01:59Z) - RGBD GS-ICP SLAM [1.3108652488669732]
一般化反復閉点(G-ICP)と3次元ガウススプラッティング(DGS)を融合した新しい密度表現SLAM手法を提案する。
実験の結果,提案手法の有効性が示され,非常に高速な107 FPSが得られた。
論文 参考訳(メタデータ) (2024-03-19T08:49:48Z) - Ternary-Type Opacity and Hybrid Odometry for RGB NeRF-SLAM [58.736472371951955]
表面を交差する光線上の点を3つの領域(前・前・後・後)に分類する3成分式不透明度モデルを導入する。
これにより、より正確な深度のレンダリングが可能となり、画像ワープ技術の性能が向上する。
TTとHOの統合アプローチは,合成および実世界のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-20T18:03:17Z) - FMapping: Factorized Efficient Neural Field Mapping for Real-Time Dense
RGB SLAM [3.6985351289638957]
本稿では,リアルタイム高密度RGB SLAMにおける色付き点クラウドマップの連続的推定を容易にする,効率的なニューラルネットワークマッピングフレームワークであるFMappingを紹介する。
本稿では,シーン表現のための効果的な因子化手法を提案し,シーン再構成の不確実性を低減するためのスライディングウィンドウ戦略を提案する。
論文 参考訳(メタデータ) (2023-06-01T11:51:46Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Learning Continuous Depth Representation via Geometric Spatial
Aggregator [47.1698365486215]
深度マップ超解法(DSR)のための新しい連続深度表現法を提案する。
この表現の中心は我々の提案した幾何空間アグリゲータ(GSA)であり、これは任意にアップサンプリングされたターゲットグリッドにより変調された距離場を利用する。
また、局所座標間の関数マッピングを構築するための原理的な方法を持つGeoDSRというトランスフォーマースタイルのバックボーンも提示する。
論文 参考訳(メタデータ) (2022-12-07T07:48:23Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。