論文の概要: LOST-3DSG: Lightweight Open-Vocabulary 3D Scene Graphs with Semantic Tracking in Dynamic Environments
- arxiv url: http://arxiv.org/abs/2601.02905v1
- Date: Tue, 06 Jan 2026 10:44:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.895697
- Title: LOST-3DSG: Lightweight Open-Vocabulary 3D Scene Graphs with Semantic Tracking in Dynamic Environments
- Title(参考訳): LOST-3DSG:動的環境におけるセマンティックトラッキングを用いた軽量オープンボキャブラリ3次元シーングラフ
- Authors: Sara Micol Ferraina, Michele Brienza, Francesco Argenziano, Emanuele Musumeci, Vincenzo Suriani, Domenico D. Bloisi, Daniele Nardi,
- Abstract要約: LOST-3DSGは、リアルタイム環境における動的オブジェクトを追跡するために設計された、軽量なオープンな3Dシーングラフである。
提案手法は, word2vec と文埋め込みに基づくエンティティ追跡に意味論的アプローチを採用する。
TIAGoロボットを用いて実際の3次元環境における定性的,定量的な実験により,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 1.5391321019692432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking objects that move within dynamic environments is a core challenge in robotics. Recent research has advanced this topic significantly; however, many existing approaches remain inefficient due to their reliance on heavy foundation models. To address this limitation, we propose LOST-3DSG, a lightweight open-vocabulary 3D scene graph designed to track dynamic objects in real-world environments. Our method adopts a semantic approach to entity tracking based on word2vec and sentence embeddings, enabling an open-vocabulary representation while avoiding the necessity of storing dense CLIP visual features. As a result, LOST-3DSG achieves superior performance compared to approaches that rely on high-dimensional visual embeddings. We evaluate our method through qualitative and quantitative experiments conducted in a real 3D environment using a TIAGo robot. The results demonstrate the effectiveness and efficiency of LOST-3DSG in dynamic object tracking. Code and supplementary material are publicly available on the project website at https://lab-rococo-sapienza.github.io/lost-3dsg/.
- Abstract(参考訳): 動的環境の中で動く物体を追跡することは、ロボット工学における中核的な課題である。
最近の研究は、この話題を大きく進めているが、多くの既存アプローチは、重い基礎モデルに依存しているため、効果が低いままである。
この制限に対処するため,実環境における動的物体の追跡を目的とした軽量なオープン語彙3DシーングラフLOST-3DSGを提案する。
提案手法は,単語2vecと文埋め込みに基づくエンティティトラッキングにセマンティックアプローチを導入し,CLIPの視覚的特徴を格納する必要性を回避しつつ,オープン語彙表現を可能にする。
その結果、LOST-3DSGは高次元の視覚的埋め込みに依存するアプローチに比べて優れた性能が得られる。
TIAGoロボットを用いて実際の3次元環境における定性的,定量的な実験により,本手法の評価を行った。
その結果,動的物体追跡におけるLOST-3DSGの有効性と有効性を示した。
コードと補足資料はプロジェクトのWebサイトでhttps://lab-rococo-sapienza.github.io/lost-3dsg/で公開されている。
関連論文リスト
- Street Gaussians without 3D Object Tracker [84.89933388445185]
既存のほとんどの方法は、オブジェクトポーズの労働集約的な手動ラベリングに依存している。
本研究では,3次元オブジェクト融合戦略における2次元ディープトラッカーの関連性を利用して,安定なオブジェクト追跡モジュールを提案する。
我々は、軌道誤差を自律的に補正し、見逃した検出を回復する暗黙の特徴空間に、モーションラーニング戦略を導入することで、避けられないトラッキングエラーに対処する。
論文 参考訳(メタデータ) (2024-12-07T05:49:42Z) - Open3DTrack: Towards Open-Vocabulary 3D Multi-Object Tracking [73.05477052645885]
オープンな語彙的3Dトラッキングを導入し、3Dトラッキングの範囲を広げて、定義済みのカテゴリを超えてオブジェクトを含める。
本稿では,オープン語彙機能を3次元トラッキングフレームワークに統合し,オブジェクトクラスが見えないように一般化する手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T15:48:42Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。