論文の概要: DROID-Splat: Combining end-to-end SLAM with 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2411.17660v2
- Date: Fri, 29 Nov 2024 18:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:20:36.922764
- Title: DROID-Splat: Combining end-to-end SLAM with 3D Gaussian Splatting
- Title(参考訳): DROID-Splat: エンドツーエンドSLAMと3次元ガウススプラッティングを組み合わせる
- Authors: Christian Homeyer, Leon Begiristain, Christoph Schnörr,
- Abstract要約: 本稿では,エンドツーエンドトラッカーをベースとしたSLAMシステムを導入し,最近の3次元ガウス切削技術に基づくレンダラーで拡張する。
フレームワーク textbfDroidSplat は、共通のSLAMベンチマーク上での SotA のトラッキングとレンダリングの結果を達成する。
- 参考スコア(独自算出の注目度): 3.2771631221674333
- License:
- Abstract: Recent progress in scene synthesis makes standalone SLAM systems purely based on optimizing hyperprimitives with a Rendering objective possible. However, the tracking performance still lacks behind traditional and end-to-end SLAM systems. An optimal trade-off between robustness, speed and accuracy has not yet been reached, especially for monocular video. In this paper, we introduce a SLAM system based on an end-to-end Tracker and extend it with a Renderer based on recent 3D Gaussian Splatting techniques. Our framework \textbf{DroidSplat} achieves both SotA tracking and rendering results on common SLAM benchmarks. We implemented multiple building blocks of modern SLAM systems to run in parallel, allowing for fast inference on common consumer GPU's. Recent progress in monocular depth prediction and camera calibration allows our system to achieve strong results even on in-the-wild data without known camera intrinsics. Code will be available at \url{https://github.com/ChenHoy/DROID-Splat}.
- Abstract(参考訳): シーン合成の最近の進歩は、レンダリング対象を最適化する超原虫を純粋にベースとしたスタンドアロンSLAMシステムを実現している。
しかし、トラッキング性能は従来のSLAMシステムとエンドツーエンドのSLAMシステムにはまだ欠けている。
特に単眼ビデオでは、ロバスト性、スピード、精度のトレードオフがまだ達成されていない。
本稿では,エンドツーエンドトラッカーをベースとしたSLAMシステムを導入し,最近の3次元ガウススプラッティング技術に基づくレンダラーで拡張する。
我々のフレームワーク \textbf{DroidSplat} は、共通のSLAMベンチマーク上で、SotA追跡とレンダリング結果の両方を達成します。
我々は、現代のSLAMシステムの複数のビルディングブロックを並列に実行し、一般的なGPUの高速な推論を可能にした。
近年の単眼深度予測とカメラキャリブレーションの進歩により, カメラ固有の知識がなくても, 眼内データにおいても強い結果が得られている。
コードは \url{https://github.com/ChenHoy/DROID-Splat} で入手できる。
関連論文リスト
- GARAD-SLAM: 3D GAussian splatting for Real-time Anti Dynamic SLAM [9.060527946525381]
動的シーンに適したリアルタイム3DGSベースのSLAMシステムであるGARAD-SLAMを提案する。
追跡の面では、ガウスの動的セグメンテーションを直接実行し、それらをフロントエンドにマッピングして動的点ラベルを得る。
実世界のデータセットを用いた結果から,本手法はベースライン手法と比較して,トラッキングに競争力があることが示された。
論文 参考訳(メタデータ) (2025-02-05T14:44:17Z) - Occam's LGS: A Simple Approach for Language Gaussian Splatting [57.00354758206751]
言語接地型3次元ガウススプラッティングの高度な技術は、単に不要であることを示す。
オッカムのカミソリを手作業に適用し、重み付けされた多視点特徴集計を行う。
我々の結果は2桁のスピードアップによる最先端の結果を提供する。
論文 参考訳(メタデータ) (2024-12-02T18:50:37Z) - FlashSLAM: Accelerated RGB-D SLAM for Real-Time 3D Scene Reconstruction with Gaussian Splatting [14.130327598928778]
FlashSLAMは、3Dガウススプラッティングを有効かつ堅牢な3Dシーン再構築に活用する新しいSLAMアプローチである。
既存の3DGSベースのSLAMメソッドは、スパースビューの設定や大きなカメラの動きの間、しばしば不足する。
提案手法は,従来手法よりも平均追跡精度を最大92%向上させる。
論文 参考訳(メタデータ) (2024-12-01T05:44:38Z) - HI-SLAM2: Geometry-Aware Gaussian SLAM for Fast Monocular Scene Reconstruction [38.47566815670662]
HI-SLAM2は、RGB入力のみを用いて高速かつ正確な単眼シーン再構築を実現する幾何学的ガウスSLAMシステムである。
既存のニューラルSLAM法よりも大幅に改善され,RGB-D法を上回り,再現性もレンダリング性も向上した。
論文 参考訳(メタデータ) (2024-11-27T01:39:21Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - Splat-SLAM: Globally Optimized RGB-only SLAM with 3D Gaussians [87.48403838439391]
3D Splattingは、RGBのみの高密度SLAMの幾何学と外観の強力な表現として登場した。
本稿では,高密度な3次元ガウス写像表現を持つRGBのみのSLAMシステムを提案する。
Replica、TUM-RGBD、ScanNetのデータセットに対する実験は、グローバルに最適化された3Dガウスの有効性を示している。
論文 参考訳(メタデータ) (2024-05-26T12:26:54Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM [48.190398577764284]
SplaTAMは、単一のRGB-Dカメラからの高忠実度再構成を可能にするアプローチである。
基礎となるガウス表現に合わせて、単純なオンライントラッキングとマッピングシステムを採用している。
実験により,SplaTAMはカメラポーズ推定,マップ構築,既存手法に対する新規ビュー合成において最大2倍の性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-12-04T18:53:24Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。