論文の概要: VTGaussian-SLAM: RGBD SLAM for Large Scale Scenes with Splatting View-Tied 3D Gaussians
- arxiv url: http://arxiv.org/abs/2506.02741v1
- Date: Tue, 03 Jun 2025 10:59:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.600035
- Title: VTGaussian-SLAM: RGBD SLAM for Large Scale Scenes with Splatting View-Tied 3D Gaussians
- Title(参考訳): VTGaussian-SLAM:RGBD SLAM for Large Scale Scenes with Splatting View-Tied 3D Gaussian
- Authors: Pengchong Hu, Zhizhong Han,
- Abstract要約: 最先端の手法では、シーンを表現するために3Dガウシアンを使用し、これらのガウシアンをスプラッティングでレンダリングすることで効率とレンダリングを向上する。
これらの手法は、非効率的な追跡とマッピング戦略のため、非常に大きなシーンにスケールアップできない。
この問題を解決するために,ビュータイド3Dガウシアンと呼ばれる新しい3D表現を扱う新しいトラッキングとマッピング戦略を提案する。
- 参考スコア(独自算出の注目度): 27.62796825514193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Jointly estimating camera poses and mapping scenes from RGBD images is a fundamental task in simultaneous localization and mapping (SLAM). State-of-the-art methods employ 3D Gaussians to represent a scene, and render these Gaussians through splatting for higher efficiency and better rendering. However, these methods cannot scale up to extremely large scenes, due to the inefficient tracking and mapping strategies that need to optimize all 3D Gaussians in the limited GPU memories throughout the training to maintain the geometry and color consistency to previous RGBD observations. To resolve this issue, we propose novel tracking and mapping strategies to work with a novel 3D representation, dubbed view-tied 3D Gaussians, for RGBD SLAM systems. View-tied 3D Gaussians is a kind of simplified Gaussians, which is tied to depth pixels, without needing to learn locations, rotations, and multi-dimensional variances. Tying Gaussians to views not only significantly saves storage but also allows us to employ many more Gaussians to represent local details in the limited GPU memory. Moreover, our strategies remove the need of maintaining all Gaussians learnable throughout the training, while improving rendering quality, and tracking accuracy. We justify the effectiveness of these designs, and report better performance over the latest methods on the widely used benchmarks in terms of rendering and tracking accuracy and scalability. Please see our project page for code and videos at https://machineperceptionlab.github.io/VTGaussian-SLAM-Project .
- Abstract(参考訳): RGBD画像からのカメラポーズとマッピングシーンの同時推定は、SLAM(Concurrent Localization and Mapping)の基本的な課題である。
最先端の手法では、シーンを表現するために3Dガウシアンを使用し、これらのガウシアンをスプラッティングでレンダリングすることで効率とレンダリングを向上する。
しかし、これらの手法は、トレーニング期間中に限られたGPUメモリにおける3Dガウスの全てを最適化し、以前のRGBD観測に合わせた幾何と色の整合性を維持する非効率な追跡とマッピング戦略のために、非常に大きなシーンにスケールアップできない。
そこで本研究では,RGBD SLAMシステムにおいて,ビュータイド3Dガウシアンと呼ばれる新しい3D表現を扱うための新しいトラッキングとマッピング戦略を提案する。
ビュータイド3Dガウスアン(View-tied 3D Gaussian)は、深度画素に結びついた単純化されたガウスアンの一種で、位置、回転、多次元の分散を学習する必要がない。
ガウスアンをビューに結びつけることはストレージを大幅に節約するだけでなく、限られたGPUメモリのローカル詳細を表現するために多くのガウスアンを使うことができる。
さらに、トレーニングを通じて学習可能なすべてのガウスの維持の必要性を排除し、レンダリング品質を改善し、精度をトラッキングする。
我々はこれらの設計の有効性を正当化し、精度とスケーラビリティのレンダリングと追跡に関して、広く使われているベンチマークの最新の手法よりも優れた性能を報告します。
コードとビデオについては、https://machineperceptionlab.github.io/VTGaussian-SLAM-Projectを参照してください。
関連論文リスト
- GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - Pushing Rendering Boundaries: Hard Gaussian Splatting [72.28941128988292]
3D Gaussian Splatting (3DGS) は,NVS(Noven View Synthesis) をリアルタイムなレンダリング方式で実現した。
我々はHGSと呼ばれるハードガウシアンスプラッティングを提案し、これは多視点的な位置勾配とレンダリング誤差を考慮し、ハードガウシアンを成長させる。
本手法は,リアルタイムの効率を保ちながら,最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-12-06T07:42:47Z) - Dynamic Gaussian Marbles for Novel View Synthesis of Casual Monocular Videos [58.22272760132996]
既存の4次元ガウス法は単分子配置が制約されていないため、この設定で劇的に失敗することを示す。
単分子配置の難易度を目標とした3つのコア修正からなる動的ガウス大理石を提案する。
Nvidia Dynamic ScenesデータセットとDyCheck iPhoneデータセットを評価し,Gaussian Marblesが他のGaussianベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-26T19:37:07Z) - RTG-SLAM: Real-time 3D Reconstruction at Scale using Gaussian Splatting [51.51310922527121]
ガウススプラッティングを用いた大規模環境のためのRGBDカメラを用いたリアルタイム3D再構成システムを提案する。
それぞれのガウス語は不透明かほぼ透明で、不透明なものは表面色と支配的な色に、透明なものは残留色に適合する。
様々な大きなシーンをリアルタイムに再現し、新しいビュー合成とカメラトラッキングの精度のリアリズムにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-30T16:54:59Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - Compact 3D Gaussian Splatting For Dense Visual SLAM [32.37035997240123]
本稿では,ガウス楕円体の数とパラメータサイズを削減できるコンパクトな3次元ガウス格子SLAMシステムを提案する。
余剰楕円体を減らすために、スライドウィンドウベースのマスキング戦略が最初に提案されている。
本手法は,シーン表現の最先端(SOTA)品質を維持しつつ,高速なトレーニングとレンダリングの高速化を実現する。
論文 参考訳(メタデータ) (2024-03-17T15:41:35Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。