論文の概要: CaRtGS: Computational Alignment for Real-Time Gaussian Splatting SLAM
- arxiv url: http://arxiv.org/abs/2410.00486v2
- Date: Wed, 2 Oct 2024 14:07:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 05:16:55.548824
- Title: CaRtGS: Computational Alignment for Real-Time Gaussian Splatting SLAM
- Title(参考訳): CaRtGS: リアルタイムガウス散乱SLAMのための計算アライメント
- Authors: Dapeng Feng, Zhiqiang Chen, Yizhen Yin, Shipeng Zhong, Yuhua Qi, Hongbo Chen,
- Abstract要約: CaRtGSは、リアルタイム環境における光リアルなシーン再構築の効率性と品質を向上させる新しい手法である。
本手法は適応戦略によりガウススティングSLAM(GS-SLAM)の計算ミスアライメントに対処する。
ReplicaとTUM-RGBDの実験は、CaRtGSが高忠実度レンダリングデータセットを実現するための有効性を示している。
- 参考スコア(独自算出の注目度): 2.894006173981735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Localization and Mapping (SLAM) is pivotal in robotics, with photorealistic scene reconstruction emerging as a key challenge. To address this, we introduce Computational Alignment for Real-Time Gaussian Splatting SLAM (CaRtGS), a novel method enhancing the efficiency and quality of photorealistic scene reconstruction in real-time environments. Leveraging 3D Gaussian Splatting (3DGS), CaRtGS achieves superior rendering quality and processing speed, which is crucial for scene photorealistic reconstruction. Our approach tackles computational misalignment in Gaussian Splatting SLAM (GS-SLAM) through an adaptive strategy that optimizes training, addresses long-tail optimization, and refines densification. Experiments on Replica and TUM-RGBD datasets demonstrate CaRtGS's effectiveness in achieving high-fidelity rendering with fewer Gaussian primitives. This work propels SLAM towards real-time, photorealistic dense rendering, significantly advancing photorealistic scene representation. For the benefit of the research community, we release the code on our project website: https://dapengfeng.github.io/cartgs.
- Abstract(参考訳): 同時局在マッピング(SLAM)は、ロボット工学において重要な課題であり、光リアルなシーン再構築が重要な課題である。
そこで本稿では,リアルタイム環境における光リアルなシーン再構築の効率と品質を向上させる手法であるCaRtGS (Computational Alignment for Real-Time Gaussian Splatting SLAM)を紹介する。
CaRtGSは3D Gaussian Splatting (3DGS)を活用することで、レンダリング品質と処理速度の向上を実現している。
提案手法は,学習を最適化し,長期最適化に対処し,密度を改良する適応戦略により,ガウススティングSLAM(GS-SLAM)の計算ミスアライメントに対処する。
ReplicaとTUM-RGBDデータセットの実験は、ガウスプリミティブの少ない高忠実性レンダリングの実現におけるCaRtGSの有効性を示している。
この研究はSLAMをリアルタイムでフォトリアリスティックな高密度レンダリングへと推進し、フォトリアリスティックなシーン表現を著しく前進させる。
リサーチコミュニティの利益のために、私たちはプロジェクトのウェブサイトでコードを公開しています。
関連論文リスト
- SP-SLAM: Neural Real-Time Dense SLAM With Scene Priors [32.42183561158492]
本稿では,SP-SLAMを提案する。SP-SLAMは,リアルタイムにトラッキングとマッピングを行う新しいRGB-D SLAMシステムである。
SP-SLAMでは,実行中のすべての過去の入力フレームのポーズを連続的に最適化する,マッピングの効果的な最適化戦略を導入する。
その結果, 従来の手法と比較して, 高速に動作しながら, トラッキング精度, 復元精度が向上していることがわかった。
論文 参考訳(メタデータ) (2025-01-11T07:53:58Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - CityGaussian: Real-time High-quality Large-Scale Scene Rendering with Gaussians [64.6687065215713]
CityGaussianは、大規模な3DGSのトレーニングとレンダリングを効率化するために、新しい分別/分別トレーニングアプローチとLevel-of-Detail(LoD)戦略を採用している。
我々のアプローチは最先端のレンダリング品質を実現し、大規模なシーンを全く異なるスケールで一貫したリアルタイムレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-04-01T14:24:40Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - EndoGaussian: Real-time Gaussian Splatting for Dynamic Endoscopic Scene
Reconstruction [36.35631592019182]
3次元ガウススプラッティングを用いたリアルタイム内視鏡的シーン再構築フレームワークであるEndoGaussian(3DGS)を紹介する。
我々のフレームワークはレンダリング速度をリアルタイムレベルまで大幅に向上させます。
公開データセットの実験は、多くの点で以前のSOTAに対する有効性を実証している。
論文 参考訳(メタデータ) (2024-01-23T08:44:26Z) - Gaussian-SLAM: Photo-realistic Dense SLAM with Gaussian Splatting [24.160436463991495]
本稿では3次元ガウスアンをシーン表現として用いたSLAM法を提案する。
本手法は,実世界のシングルカメラRGBDビデオから,インタラクティブなリアルタイム再構成と写真リアルレンダリングを実現する。
論文 参考訳(メタデータ) (2023-12-06T10:47:53Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。