論文の概要: Rad-GS: Radar-Vision Integration for 3D Gaussian Splatting SLAM in Outdoor Environments
- arxiv url: http://arxiv.org/abs/2511.16091v1
- Date: Thu, 20 Nov 2025 06:32:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.502866
- Title: Rad-GS: Radar-Vision Integration for 3D Gaussian Splatting SLAM in Outdoor Environments
- Title(参考訳): Rad-GS:屋外環境における3次元ガウス切削SLAMのためのレーダビジョン統合
- Authors: Renxiang Xiao, Wei Liu, Yuanfan Zhang, Yushuai Chen, Jinming Chen, Zilu Wang, Liang Hu,
- Abstract要約: Rad-GSは、キロスケールの屋外環境向けに設計された4DレーダーカメラSLAMシステムである。
Rad-GSはカメラやLiDARの入力に基づく従来の3Dガウス法に匹敵する性能を示す。
- 参考スコア(独自算出の注目度): 7.035816744210293
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Rad-GS, a 4D radar-camera SLAM system designed for kilometer-scale outdoor environments, utilizing 3D Gaussian as a differentiable spatial representation. Rad-GS combines the advantages of raw radar point cloud with Doppler information and geometrically enhanced point cloud to guide dynamic object masking in synchronized images, thereby alleviating rendering artifacts and improving localization accuracy. Additionally, unsynchronized image frames are leveraged to globally refine the 3D Gaussian representation, enhancing texture consistency and novel view synthesis fidelity. Furthermore, the global octree structure coupled with a targeted Gaussian primitive management strategy further suppresses noise and significantly reduces memory consumption in large-scale environments. Extensive experiments and ablation studies demonstrate that Rad-GS achieves performance comparable to traditional 3D Gaussian methods based on camera or LiDAR inputs, highlighting the feasibility of robust outdoor mapping using 4D mmWave radar. Real-world reconstruction at kilometer scale validates the potential of Rad-GS for large-scale scene reconstruction.
- Abstract(参考訳): 我々は,3次元ガウスアンを空間表現として利用して,キロスケール屋外環境向けに設計された4次元レーダカメラSLAMシステムであるRad-GSを提案する。
Rad-GSは、生のレーダポイントクラウドとドップラー情報と幾何学的に拡張されたポイントクラウドの利点を組み合わせて、同期画像における動的オブジェクトマスキングを誘導し、レンダリングアーティファクトを緩和し、ローカライズ精度を向上させる。
さらに、非同期画像フレームを利用して3次元ガウス表現をグローバルに洗練し、テクスチャの整合性を高め、新しいビュー合成忠実度を向上する。
さらに,グローバルオクツリー構造とターゲットとするガウス原始管理戦略が組み合わさって,ノイズを抑え,大規模環境におけるメモリ消費を大幅に削減する。
大規模な実験とアブレーション研究により、Rad-GSはカメラやLiDARの入力に基づく従来の3Dガウス法に匹敵する性能を達成し、4D mmWaveレーダーを用いた堅牢な屋外マッピングの実現可能性を強調した。
キロスケールでの現実世界の再現は、大規模シーン再構築のためのRad-GSの可能性を検証する。
関連論文リスト
- 3D Scene Rendering with Multimodal Gaussian Splatting [7.646123713331197]
3Dシーンの再構築とレンダリングはコンピュータビジョンの中核的なタスクであり、産業監視、ロボット工学、自動運転といった用途にまたがる。
近年の3Dガウススプラッティングは、高い計算効率とメモリ効率を維持しながら、印象的なレンダリング忠実性を実現している。
我々は、自動車レーダーのようなRFセンシングとGSベースのレンダリングを、視覚のみのGSレンダリングのより効率的で堅牢な代替手段として統合するマルチモーダルフレームワークを導入する。
論文 参考訳(メタデータ) (2026-02-19T06:49:53Z) - Improved 3D Gaussian Splatting of Unknown Spacecraft Structure Using Space Environment Illumination Knowledge [7.2620484413601325]
本研究は、未知のターゲット宇宙船の3次元構造を、宇宙空間で撮影された一連の画像から復元する新しいパイプラインを提案する。
3DGSの学習には静的なシーンが必要である。
トレーニングされた3DGSモデルは、フォトメトリック最適化によるカメラポーズ推定にも使用することができる。
論文 参考訳(メタデータ) (2025-12-30T05:35:35Z) - SING3R-SLAM: Submap-based Indoor Monocular Gaussian SLAM with 3D Reconstruction Priors [80.51557267896938]
SING3R-SLAMはガウスベースの高密度RGB SLAMフレームワークである。
SING3R-SLAMは最先端のトラッキング、3D再構成、新しいビューレンダリングを実現し、12%以上の精度向上を実現し、より細かな幾何を創出する。
論文 参考訳(メタデータ) (2025-11-21T12:40:55Z) - RaGS: Unleashing 3D Gaussian Splatting from 4D Radar and Monocular Cues for 3D Object Detection [22.546559563539272]
提案するRaGSは,3次元ガウス散乱を利用して4次元レーダとモノクラーキューを融合して3次元物体検出を行うフレームワークである。
RaGSはオブジェクト中心の精度と総合的なシーン認識を実現する。
論文 参考訳(メタデータ) (2025-07-26T08:17:12Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Optimizing 3D Gaussian Splatting for Sparse Viewpoint Scene Reconstruction [11.840097269724792]
3D Gaussian Splatting (3DGS)は3Dシーン表現の有望なアプローチとして登場し、Neural Radiance Fields (NeRF)と比較して計算オーバーヘッドの低減を実現している。
SVS-GSは,3次元ガウス平滑化フィルタを統合して人工物を抑制する,スパースビューポイントシーン再構築のための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-05T03:18:04Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。