論文の概要: Vox-Fusion: Dense Tracking and Mapping with Voxel-based Neural Implicit
Representation
- arxiv url: http://arxiv.org/abs/2210.15858v1
- Date: Fri, 28 Oct 2022 02:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:35:12.464628
- Title: Vox-Fusion: Dense Tracking and Mapping with Voxel-based Neural Implicit
Representation
- Title(参考訳): Vox-Fusion:Voxel-based Neural Implicit Representationを用いたDense Trackingとマッピング
- Authors: Xingrui Yang, Hai Li, Hongjia Zhai, Yuhang Ming, Yuqian Liu, Guofeng
Zhang
- Abstract要約: 本稿では,Vox-Fusionという高密度追跡・マッピングシステムを提案する。
我々は、ボクセルベースのニューラル暗黙表面表現を利用して、各ボクセル内のシーンをエンコードし、最適化する。
我々のVox-Fusionは、拡張現実や仮想現実のアプリケーションで利用することができる。
- 参考スコア(独自算出の注目度): 9.302171065062598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a dense tracking and mapping system named
Vox-Fusion, which seamlessly fuses neural implicit representations with
traditional volumetric fusion methods. Our approach is inspired by the recently
developed implicit mapping and positioning system and further extends the idea
so that it can be freely applied to practical scenarios. Specifically, we
leverage a voxel-based neural implicit surface representation to encode and
optimize the scene inside each voxel. Furthermore, we adopt an octree-based
structure to divide the scene and support dynamic expansion, enabling our
system to track and map arbitrary scenes without knowing the environment like
in previous works. Moreover, we proposed a high-performance multi-process
framework to speed up the method, thus supporting some applications that
require real-time performance. The evaluation results show that our methods can
achieve better accuracy and completeness than previous methods. We also show
that our Vox-Fusion can be used in augmented reality and virtual reality
applications. Our source code is publicly available at
https://github.com/zju3dv/Vox-Fusion.
- Abstract(参考訳): 本研究では,従来の容積融合法とニューラル暗黙表現をシームレスに融合させる,Vox-Fusionという高密度追跡・マッピングシステムを提案する。
このアプローチは,最近開発された暗黙的マッピングと位置決めシステムに着想を得て,実用的なシナリオに自由に適用できるようにアイデアをさらに拡張する。
具体的には、voxelベースのニューラルネットワークによる暗黙的表面表現を利用して、各voxel内のシーンをエンコードし、最適化する。
さらに,シーンを分割し,動的拡張をサポートするためにオクツリー構造を採用し,従来のような環境を知らずに任意のシーンを追跡・マップできるシステムを開発した。
さらに,提案手法を高速化する高性能マルチプロセスフレームワークを提案し,リアルタイム性能を必要とするアプリケーションをいくつかサポートした。
評価の結果,提案手法は従来手法よりも精度と完全性を向上できることがわかった。
また、私たちのVox-Fusionは拡張現実やバーチャルリアリティーのアプリケーションにも利用できることを示す。
ソースコードはhttps://github.com/zju3dv/Vox-Fusion.comで公開されています。
関連論文リスト
- LCP-Fusion: A Neural Implicit SLAM with Enhanced Local Constraints and Computable Prior [22.948360879064758]
LCP-Fusionは、局所的な制約が強化され、計算可能な事前計算が可能な、神経暗黙のSLAMシステムである。
提案手法は,既存のRGB-D暗黙SLAMよりも高精度な局所化精度と再構成整合性を実現する。
論文 参考訳(メタデータ) (2024-11-06T02:05:44Z) - UniVoxel: Fast Inverse Rendering by Unified Voxelization of Scene Representation [66.95976870627064]
We design a Unified Voxelization framework for explicit learning of scene representations, called UniVoxel。
そこで本研究では,シーンの形状,材料,照明を軽量ニューラルネットワークで容易に学習できるため,シーンを潜在容積表現に符号化することを提案する。
実験の結果、UniVoxelは他の方法と比較して最適化効率を著しく向上させ、シーンごとのトレーニング時間を数時間から18分に短縮し、良好な再現性を実現した。
論文 参考訳(メタデータ) (2024-07-28T17:24:14Z) - Vox-Fusion++: Voxel-based Neural Implicit Dense Tracking and Mapping with Multi-maps [34.10105342359639]
本稿では,従来の容積融合法とニューラルな暗黙表現をシームレスに融合する,頑健な高密度追跡・マッピングシステムであるVox-Fusion++を紹介する。
本システムでは,各ボクセル内のシーンの効率的なエンコーディングと最適化を実現するために,ボクセルをベースとしたニューラル暗黙表面表現を用いる。
提案手法は, 様々なシナリオにおいて, 再現性や精度において, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-19T08:21:54Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - VisFusion: Visibility-aware Online 3D Scene Reconstruction from Videos [24.310673998221866]
提案するVisFusionは,モノクラー映像からの3Dシーン再構成を視覚的に認識するオンライン手法である。
類似度行列からその可視性を明示的に推測することで特徴融合を改善することを目的としている。
ベンチマークによる実験結果から,本手法はより詳細なシーンで優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-04-21T00:47:05Z) - Voxel Field Fusion for 3D Object Detection [140.6941303279114]
本稿では,3次元オブジェクト検出のための概念的にシンプルなフレームワークであるvoxel field fusionを提案する。
提案手法は, ボクセル領域における画像特徴を線として表現し, 融合することにより, モダリティの整合性を維持することを目的としている。
このフレームワークは、さまざまなベンチマークで一貫したゲインを達成し、KITTIとnuScenesデータセットでの従来のフュージョンベースのメソッドを上回っている。
論文 参考訳(メタデータ) (2022-05-31T16:31:36Z) - RISP: Rendering-Invariant State Predictor with Differentiable Simulation
and Rendering for Cross-Domain Parameter Estimation [110.4255414234771]
既存のソリューションでは、大量のトレーニングデータが必要か、未知のレンダリング設定への一般化性が欠如している。
本稿では、ドメインのランダム化と微分可能なレンダリング勾配を併用してこの問題に対処する手法を提案する。
提案手法は, 再構成誤差を大幅に低減し, 未知のレンダリング構成間の一般化性が向上する。
論文 参考訳(メタデータ) (2022-05-11T17:59:51Z) - Content-aware Warping for View Synthesis [110.54435867693203]
本稿では,比較的大きな近傍の画素の重みを,軽量ニューラルネットワークによる文脈情報から適応的に学習するコンテンツ認識ワープを提案する。
この学習可能なワープモジュールに基づいて、2つのソースビューから新しいビューを合成するエンド・ツー・エンドの学習ベースのフレームワークを提案する。
広いベースラインと非構造的多視点データセットを有する構造的光フィールドデータセットの実験結果から,提案手法は,定量的かつ視覚的に,最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-01-22T11:35:05Z) - NeuralFusion: Online Depth Fusion in Latent Space [77.59420353185355]
潜在特徴空間における深度マップアグリゲーションを学習する新しいオンライン深度マップ融合手法を提案する。
提案手法は,高騒音レベルを処理し,特に測光ステレオベース深度マップに共通する粗悪なアウトレージに対処できる。
論文 参考訳(メタデータ) (2020-11-30T13:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。