論文の概要: SiLVR: Scalable Lidar-Visual Radiance Field Reconstruction with Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2502.02657v2
- Date: Wed, 10 Sep 2025 21:52:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 13:52:32.654748
- Title: SiLVR: Scalable Lidar-Visual Radiance Field Reconstruction with Uncertainty Quantification
- Title(参考訳): SiLVR:不確実性量子化によるスケーラブルライダー・ビジュアル放射場再構成
- Authors: Yifu Tao, Maurice Fallon,
- Abstract要約: 本稿では,ライダーと視覚データを融合したNeRFを用いた大規模再構成システムを提案する。
我々のシステムはライダーを組み込むために最先端のNeRF表現を採用する。
ライダーデータを追加すると、深さと表面の正規値に強い幾何学的制約が加わる。
- 参考スコア(独自算出の注目度): 0.6445605125467574
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a neural radiance field (NeRF) based large-scale reconstruction system that fuses lidar and vision data to generate high-quality reconstructions that are geometrically accurate and capture photorealistic texture. Our system adopts the state-of-the-art NeRF representation to incorporate lidar. Adding lidar data adds strong geometric constraints on the depth and surface normals, which is particularly useful when modelling uniform texture surfaces which contain ambiguous visual reconstruction cues. A key contribution of this work is a novel method to quantify the epistemic uncertainty of the lidar-visual NeRF reconstruction by estimating the spatial variance of each point location in the radiance field given the sensor observations from the cameras and lidar. This provides a principled approach to evaluate the contribution of each sensor modality to the final reconstruction. In this way, reconstructions that are uncertain (due to e.g. uniform visual texture, limited observation viewpoints, or little lidar coverage) can be identified and removed. Our system is integrated with a real-time lidar SLAM system which is used to bootstrap a Structure-from-Motion (SfM) reconstruction procedure. It also helps to properly constrain the overall metric scale which is essential for the lidar depth loss. The refined SLAM trajectory can then be divided into submaps using Spectral Clustering to group sets of co-visible images together. This submapping approach is more suitable for visual reconstruction than distance-based partitioning. Our uncertainty estimation is particularly effective when merging submaps as their boundaries often contain artefacts due to limited observations. We demonstrate the reconstruction system using a multi-camera, lidar sensor suite in experiments involving both robot-mounted and handheld scanning. Our test datasets cover a total area of more than 20,000 square metres.
- Abstract(参考訳): 我々は,ライダーと視覚データを融合させ,幾何学的に正確で,光現実的なテクスチャを捉えた高品質な再構成を生成するニューラル放射場(NeRF)に基づく大規模再構成システムを提案する。
我々のシステムはライダーを組み込むために最先端のNeRF表現を採用する。
ライダーデータを追加すると、深度や表面の正常度に強い幾何学的制約が生じるが、これは特に、曖昧な視覚的再構成手段を含む均一なテクスチャ表面をモデル化する場合に有用である。
この研究の重要な貢献は、カメラとライダーからのセンサ観測から放射場における各点位置の空間的ばらつきを推定することにより、ライダー-視覚的NeRF再構成の疫学的不確実性を定量化する手法である。
これにより、各センサモードの最終的な再構成への寄与を評価するための原則化されたアプローチが提供される。
このようにして、不確実な再構成(例えば、一様の視覚的テクスチャ、限られた観察視点、少ないライダーカバレッジ)を識別して除去することができる。
本システムは,Structure-from-Motion (SfM)再構成手順のブートストラップに使用されるリアルタイムライダーSLAMシステムと統合されている。
また、ライダーの深さ損失に不可欠な全体的なメートル法スケールを適切に制約するのにも役立ちます。
改良されたSLAM軌道は、スペクトルクラスタリングを用いてサブマップに分割して、共同可視画像の集合をまとめることができる。
このサブマッピングアプローチは、距離ベースパーティショニングよりも視覚的再構成に適している。
我々の不確実性推定は、サブマップを境界としてマージする際には特に有効である。
ロボット搭載型とハンドヘルド型の両方のスキャニング実験において,マルチカメラ・ライダーセンサ・スイートを用いた再構築システムを実証した。
テストデータセットは2万平方メートル以上の面積をカバーしています。
関連論文リスト
- GCRayDiffusion: Pose-Free Surface Reconstruction via Geometric Consistent Ray Diffusion [30.773599974914415]
従来のアプローチでは、高密度ビュー設定において、ポーズのない表面再構成結果が顕著に達成されている。
カメラポーズ推定の線量拡散から抽出した明示的な点による学習を規則化する,ポーズレス表面再構成のための新しい手法を提案する。
我々のGCRayDiffusionは、幾何的に一貫した表面再構成結果により、従来のアプローチよりも正確なカメラポーズ推定を実現している。
論文 参考訳(メタデータ) (2025-03-28T11:45:09Z) - Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - PINGS: Gaussian Splatting Meets Distance Fields within a Point-Based Implicit Neural Map [30.06864329412246]
本稿では,連続符号付き距離場とガウススプラッティング放射場を弾性的かつコンパクトな点ベース暗黙的ニューラルマップ内に統一する新しい写像表現を提案する。
我々は,提案した地図表現を用いて,PINGSと呼ばれるLiDAR-visual SLAMシステムを考案し,いくつかの挑戦的な大規模データセット上で評価する。
論文 参考訳(メタデータ) (2025-02-09T03:06:19Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - SiLVR: Scalable Lidar-Visual Reconstruction with Neural Radiance Fields
for Robotic Inspection [4.6102302191645075]
本稿では,ライダーと視覚データを融合して高品質な再構築を行う,ニューラルネットワークに基づく大規模再構築システムを提案する。
実時間ライダーSLAMシステムからの軌道を利用してStructure-from-Motion (SfM) 手順をブートストラップする。
サブマッピングを用いて、長い軌道上で捕獲された大規模環境にシステムをスケールする。
論文 参考訳(メタデータ) (2024-03-11T16:31:25Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - Semi-signed neural fitting for surface reconstruction from unoriented
point clouds [53.379712818791894]
より優れた符号付き距離場を再構成するためのSN-Fittingを提案する。
SSNフィッティングは半署名の監督と損失に基づく領域サンプリング戦略で構成されている。
我々は,SSN-Fittingが,異なる設定下で最先端の性能を達成することを示す実験を行う。
論文 参考訳(メタデータ) (2022-06-14T09:40:17Z) - TerrainMesh: Metric-Semantic Terrain Reconstruction from Aerial Images
Using Joint 2D-3D Learning [20.81202315793742]
本稿では,視覚的オドメトリーアルゴリズムによって保持される各カメラにおける局所的メートル法-セマンティックメッシュを再構築する2次元3次元学習手法を提案する。
メッシュはグローバル環境モデルに組み立てて、オンライン操作中の地形のトポロジとセマンティクスをキャプチャすることができる。
論文 参考訳(メタデータ) (2022-04-23T05:18:39Z) - 3D Surface Reconstruction From Multi-Date Satellite Images [11.84274417463238]
本研究では,複数の衛星画像から点雲を再構成することのできるStructure from Motion (SfM) ベースのパイプラインの拡張を提案する。
衛星画像のコンテキストにおいて、最先端メッシュ再構成アルゴリズムを利用するために必須となるいくつかのステップについて、詳細な説明を提供する。
提案したパイプラインと現在のメッシュアルゴリズムが組み合わさって、完全性と中央値エラーの点で最先端のクラウド再構築アルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2021-02-04T09:23:21Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。