論文の概要: HGS-Mapping: Online Dense Mapping Using Hybrid Gaussian Representation in Urban Scenes
- arxiv url: http://arxiv.org/abs/2403.20159v1
- Date: Fri, 29 Mar 2024 13:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 15:34:34.156263
- Title: HGS-Mapping: Online Dense Mapping Using Hybrid Gaussian Representation in Urban Scenes
- Title(参考訳): 都市景観におけるハイブリッドガウス表現を用いたHGSマッピング
- Authors: Ke Wu, Kaizhao Zhang, Zhiwei Zhang, Shanshuai Yuan, Muer Tie, Julong Wei, Zijun Xu, Jieru Zhao, Zhongxue Gan, Wenchao Ding,
- Abstract要約: 大規模都市景観におけるオンライン高密度マッピングフレームワークHGS-Mappingを提案する。
私たちは、ガウス表現を都市景観のオンライン密集地図に統合した最初の人物です。
提案手法は66%のガウスしか採用せず,SOTA再建精度が向上し,再建速度は20%向上した。
- 参考スコア(独自算出の注目度): 9.698226248064454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online dense mapping of urban scenes forms a fundamental cornerstone for scene understanding and navigation of autonomous vehicles. Recent advancements in mapping methods are mainly based on NeRF, whose rendering speed is too slow to meet online requirements. 3D Gaussian Splatting (3DGS), with its rendering speed hundreds of times faster than NeRF, holds greater potential in online dense mapping. However, integrating 3DGS into a street-view dense mapping framework still faces two challenges, including incomplete reconstruction due to the absence of geometric information beyond the LiDAR coverage area and extensive computation for reconstruction in large urban scenes. To this end, we propose HGS-Mapping, an online dense mapping framework in unbounded large-scale scenes. To attain complete construction, our framework introduces Hybrid Gaussian Representation, which models different parts of the entire scene using Gaussians with distinct properties. Furthermore, we employ a hybrid Gaussian initialization mechanism and an adaptive update method to achieve high-fidelity and rapid reconstruction. To the best of our knowledge, we are the first to integrate Gaussian representation into online dense mapping of urban scenes. Our approach achieves SOTA reconstruction accuracy while only employing 66% number of Gaussians, leading to 20% faster reconstruction speed.
- Abstract(参考訳): 都市景観のオンライン密集マッピングは、自動運転車のシーン理解とナビゲーションの基盤となる。
近年のマッピング手法の進歩は主にNeRFに基づいており、レンダリング速度はオンライン要求を満たすには遅すぎる。
3D Gaussian Splatting (3DGS)は、NeRFよりも数百倍高速なレンダリング速度を持ち、オンラインの高密度マッピングにおいて大きな可能性を秘めている。
しかし、3DGSをストリートビューの高密度マッピングフレームワークに統合することは、LiDAR範囲を超える幾何学的情報が欠如していることや、大都市景観における復元のための広範囲な計算など、いまだに2つの課題に直面している。
この目的のために,大規模シーンにおけるオンライン高密度マッピングフレームワークであるHGS-Mappingを提案する。
完全な構築を実現するために,本フレームワークでは,異なる性質を持つガウス表現を用いてシーン全体の異なる部分をモデル化するハイブリッドガウス表現を導入している。
さらに,高忠実かつ迅速な再構築を実現するために,ハイブリッドガウス初期化機構と適応更新方式を用いる。
我々の知る限りでは、ガウスの表現を都市景観のオンライン密集地図に統合するのは初めてである。
提案手法は66%のガウスしか採用せず,SOTA再建精度が向上し,再建速度は20%向上した。
関連論文リスト
- CityGaussian: Real-time High-quality Large-Scale Scene Rendering with Gaussians [53.02232261844281]
CityGaussianは、大規模な3DGSのトレーニングとレンダリングを効率化するために、新しい分別/分別トレーニングアプローチとLevel-of-Detail(LoD)戦略を採用している。
我々のアプローチは最先端のレンダリング品質を実現し、大規模なシーンを全く異なるスケールで一貫したリアルタイムレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-04-01T14:24:40Z) - HO-Gaussian: Hybrid Optimization of 3D Gaussian Splatting for Urban Scenes [24.227745405760697]
本稿では,グリッドベースボリュームと3DGSパイプラインを組み合わせたHO-Gaussianというハイブリッド最適化手法を提案する。
広範に使用されている自律走行データセットの結果から,HO-Gaussianはマルチカメラ都市データセット上でリアルタイムに写真リアリスティックレンダリングを実現することが示された。
論文 参考訳(メタデータ) (2024-03-29T07:58:21Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - latentSplat: Autoencoding Variational Gaussians for Fast Generalizable 3D Reconstruction [48.86083272054711]
latentSplatは3D潜在空間における意味ガウスを予測し、軽量な生成型2Dアーキテクチャで切り落としてデコードする手法である。
latentSplatは、高速でスケーラブルで高解像度なデータでありながら、復元品質と一般化におけるこれまでの成果よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-24T20:48:36Z) - RGBD GS-ICP SLAM [1.3108652488669732]
一般化反復閉点(G-ICP)と3次元ガウススプラッティング(DGS)を融合した新しい密度表現SLAM手法を提案する。
実験の結果,提案手法の有効性が示され,非常に高速な107 FPSが得られた。
論文 参考訳(メタデータ) (2024-03-19T08:49:48Z) - SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM [48.190398577764284]
SplaTAMは、単一のRGB-Dカメラからの高忠実度再構成を可能にするアプローチである。
基礎となるガウス表現に合わせて、単純なオンライントラッキングとマッピングシステムを採用している。
実験により,SplaTAMはカメラポーズ推定,マップ構築,既存手法に対する新規ビュー合成において最大2倍の性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-12-04T18:53:24Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [63.8093511389908]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。