論文の概要: Latent Gaussian Splatting for 4D Panoptic Occupancy Tracking
- arxiv url: http://arxiv.org/abs/2602.23172v1
- Date: Thu, 26 Feb 2026 16:34:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.776885
- Title: Latent Gaussian Splatting for 4D Panoptic Occupancy Tracking
- Title(参考訳): 4次元パノプティクス機能トラッキングのための潜時ガウススプラッティング
- Authors: Maximilian Luz, Rohit Mohan, Thomas Nürnberg, Yakov Miron, Daniele Cattaneo, Abhinav Valada,
- Abstract要約: 動的環境下でのロボットの安全かつ信頼性の高い動作には,4次元時間トラッキングが不可欠である。
本稿では,4次元パノプティカル占有追跡のためのラテントガウススプラッティングについて述べる。
私たちはhttps://lags.cs.uni-freiburg.de/でコードを公開しています。
- 参考スコア(独自算出の注目度): 17.16370461224889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing 4D spatiotemporal surroundings is crucial for the safe and reliable operation of robots in dynamic environments. However, most existing methods address only one side of the problem: they either provide coarse geometric tracking via bounding boxes, or detailed 3D structures like voxel-based occupancy that lack explicit temporal association. In this work, we present Latent Gaussian Splatting for 4D Panoptic Occupancy Tracking (LaGS) that advances spatiotemporal scene understanding in a holistic direction. Our approach incorporates camera-based end-to-end tracking with mask-based multi-view panoptic occupancy prediction, and addresses the key challenge of efficiently aggregating multi-view information into 3D voxel grids via a novel latent Gaussian splatting approach. Specifically, we first fuse observations into 3D Gaussians that serve as a sparse point-centric latent representation of the 3D scene, and then splat the aggregated features onto a 3D voxel grid that is decoded by a mask-based segmentation head. We evaluate LaGS on the Occ3D nuScenes and Waymo datasets, achieving state-of-the-art performance for 4D panoptic occupancy tracking. We make our code available at https://lags.cs.uni-freiburg.de/.
- Abstract(参考訳): 動的環境下でのロボットの安全かつ信頼性の高い操作には,4次元時空間の捕捉が不可欠である。
しかし、既存のほとんどの手法は、境界ボックスを介して粗い幾何学的追跡を提供するか、時間的関係が明確でないボクセルベースの占有のような詳細な3D構造を提供する。
本研究では,4次元パノプティクス機能トラッキング(LaGS)のためのラテン・ガウシアン・スプラッティング(Latent Gaussian Splatting)を提案する。
提案手法は,マスクを用いた多視点パノプティック占有予測を用いたカメラベースエンドツーエンドトラッキングを取り入れ,新しい潜伏ガウススティング手法により,多視点情報を3次元ボクセルグリッドに効率的に集約する鍵となる課題に対処する。
具体的には、まず3Dシーンのスパースポイント中心の潜在表現として機能する3Dガウスに観察を融合させ、次にマスクベースのセグメンテーションヘッドでデコードされた3Dボクセルグリッドに集約された特徴をスプレイする。
我々は,Occ3D nuScenesおよびWaymoデータセット上でLaGSを評価し,4Dパノプティクスの占有状況追跡のための最先端性能を実現する。
コードはhttps://lags.cs.uni-freiburg.de/で公開しています。
関連論文リスト
- RaGS: Unleashing 3D Gaussian Splatting from 4D Radar and Monocular Cues for 3D Object Detection [22.546559563539272]
提案するRaGSは,3次元ガウス散乱を利用して4次元レーダとモノクラーキューを融合して3次元物体検出を行うフレームワークである。
RaGSはオブジェクト中心の精度と総合的なシーン認識を実現する。
論文 参考訳(メタデータ) (2025-07-26T08:17:12Z) - Outdoor Monocular SLAM with Global Scale-Consistent 3D Gaussian Pointmaps [13.325879149065008]
3D Gaussian Splatting (3DGS) は、高忠実性合成とリアルタイムな新規ビュー性能によりSLAMにおいて一般的なソリューションとなっている。
以前の3DGS SLAM法では、屋外のシーンに幾何学的な先行性がないため、追跡に微分可能なレンダリングパイプラインを使用していた。
技術的には、3DGSポイントマップに固定された自己整合性トラッキングモジュールを構築し、累積スケールドリフトを回避し、より正確でロバストなトラッキングを実現する。
論文 参考訳(メタデータ) (2025-07-04T17:56:43Z) - H3D-DGS: Exploring Heterogeneous 3D Motion Representation for Deformable 3D Gaussian Splatting [39.2960379257236]
ダイナミックシーンの再構築は、3Dビジョンにおいて永続的な課題となる。
変形可能な3Dガウススプラッティングは,リアルタイムレンダリングと高視認性を実現するため,この作業に有効な方法として登場した。
このアプローチは、動的シーンを標準空間における静的な表現と時間変化のシーンモーションに分解する。
Neu3DVおよびCMU-Panopticデータセットを用いた実験により,本手法は最先端の変形可能な3次元ガウススプラッティング技術よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-08-23T12:51:49Z) - GaussianFormer: Scene as Gaussians for Vision-Based 3D Semantic Occupancy Prediction [70.65250036489128]
3Dのセマンティック占有予測は,周囲のシーンの3Dの微細な形状とセマンティックスを得ることを目的としている。
本稿では,3Dシーンを3Dセマンティック・ガウシアンで表現するオブジェクト中心表現を提案する。
GaussianFormerは17.8%から24.8%のメモリ消費しか持たない最先端のメソッドで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-27T17:59:51Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。