論文の概要: CRISTAL: Real-time Camera Registration in Static LiDAR Scans using Neural Rendering
- arxiv url: http://arxiv.org/abs/2511.16349v1
- Date: Thu, 20 Nov 2025 13:34:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.645521
- Title: CRISTAL: Real-time Camera Registration in Static LiDAR Scans using Neural Rendering
- Title(参考訳): CRISTAL: ニューラルネットワークを用いた静的LiDARスキャンにおけるリアルタイムカメラ登録
- Authors: Joni Vanherck, Steven Moonen, Brent Zoomers, Kobe Werner, Jeroen Put, Lode Jorissen, Nick Michiels,
- Abstract要約: この研究は、撮影済みで高精度な色付きLiDAR点雲内にカメラをローカライズするリアルタイム手法を導入する。
ニューラルレンダリング技術は、合成画像と実画像の間の領域ギャップを狭める。
その結果、グローバルなLiDAR座標系において、正確なメートル法スケールのドリフトフリーカメラトラッキングが実現した。
- 参考スコア(独自算出の注目度): 0.7524645831849633
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate camera localization is crucial for robotics and Extended Reality (XR), enabling reliable navigation and alignment of virtual and real content. Existing visual methods often suffer from drift, scale ambiguity, and depend on fiducials or loop closure. This work introduces a real-time method for localizing a camera within a pre-captured, highly accurate colored LiDAR point cloud. By rendering synthetic views from this cloud, 2D-3D correspondences are established between live frames and the point cloud. A neural rendering technique narrows the domain gap between synthetic and real images, reducing occlusion and background artifacts to improve feature matching. The result is drift-free camera tracking with correct metric scale in the global LiDAR coordinate system. Two real-time variants are presented: Online Render and Match, and Prebuild and Localize. We demonstrate improved results on the ScanNet++ dataset and outperform existing SLAM pipelines.
- Abstract(参考訳): 正確なカメラのローカライゼーションはロボット工学と拡張現実(XR)にとって不可欠であり、バーチャルコンテンツとリアルコンテンツの信頼性の高いナビゲーションとアライメントを可能にする。
既存の視覚的手法は、しばしば漂流に悩まされ、曖昧さを拡大し、フィデューシャルやループの閉鎖に依存する。
この研究は、撮影済みで高精度な色付きLiDAR点雲内にカメラをローカライズするリアルタイム手法を導入する。
この雲から合成ビューをレンダリングすることにより、ライブフレームとポイントクラウドの間に2D-3D対応が確立される。
ニューラルレンダリング技術は、合成画像と実画像の間の領域ギャップを狭め、閉塞と背景アーティファクトを減らし、特徴マッチングを改善する。
その結果、グローバルなLiDAR座標系において、正確なメートル法スケールのドリフトフリーカメラトラッキングが実現した。
Online RenderとMatch、PrebuildとLocalizeの2つのリアルタイム版が提供されている。
我々は、ScanNet++データセットで改善された結果を示し、既存のSLAMパイプラインより優れています。
関連論文リスト
- R3D2: Realistic 3D Asset Insertion via Diffusion for Autonomous Driving Simulation [78.26308457952636]
本稿では,自律運転シミュレーションの限界を克服する軽量な1ステップ拡散モデルであるR3D2を紹介する。
シャドウや一貫した照明など、妥当なレンダリング効果を生み出すことで、既存のシーンに完全な3Dアセットを現実的に挿入することができる。
R3D2は挿入されたアセットの現実性を大幅に向上させ,テキストから3Dへのアセット挿入やクロスシーン/データセットオブジェクト転送といったユースケースを可能にした。
論文 参考訳(メタデータ) (2025-06-09T14:50:19Z) - Real-time Neural Rendering of LiDAR Point Clouds [0.2621434923709917]
1x1ピクセルを用いた出力ビューへの点雲の単純投影は高速であり、利用可能な詳細を保持するが、背景点が前景画素間に漏れるにつれて、認識不能なレンダリングをもたらす。
U-Netの形での深い畳み込みモデルを用いて、これらの射影を現実的な結果に変換する。
また,不完全整合な地上真実画像を扱うための合成訓練データを生成する手法についても述べる。
論文 参考訳(メタデータ) (2025-02-17T10:01:13Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - Gaussian-SLAM: Photo-realistic Dense SLAM with Gaussian Splatting [24.160436463991495]
本稿では3次元ガウスアンをシーン表現として用いたSLAM法を提案する。
本手法は,実世界のシングルカメラRGBDビデオから,インタラクティブなリアルタイム再構成と写真リアルレンダリングを実現する。
論文 参考訳(メタデータ) (2023-12-06T10:47:53Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。