論文の概要: Dream-SLAM: Dreaming the Unseen for Active SLAM in Dynamic Environments
- arxiv url: http://arxiv.org/abs/2602.21967v1
- Date: Wed, 25 Feb 2026 14:48:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.872298
- Title: Dream-SLAM: Dreaming the Unseen for Active SLAM in Dynamic Environments
- Title(参考訳): Dream-SLAM:動的環境におけるアクティブSLAMの夢
- Authors: Xiangqi Meng, Pengxu Hou, Zhenjun Zhao, Javier Civera, Daniel Cremers, Hesheng Wang, Haoang Li,
- Abstract要約: 単分子アクティブSLAM法Dream-SLAMを提案する。
部分的に観察された動的環境の時空間的イメージと意味論的に妥当な構造を夢見ている。
公開データセットと自己収集データセットの両方の実験は、Dream-SLAMがローカライズ精度、マッピング品質、探索効率において最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 62.70468717776612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In addition to the core tasks of simultaneous localization and mapping (SLAM), active SLAM additionally in- volves generating robot actions that enable effective and efficient exploration of unknown environments. However, existing active SLAM pipelines are limited by three main factors. First, they inherit the restrictions of the underlying SLAM modules that they may be using. Second, their motion planning strategies are typically shortsighted and lack long-term vision. Third, most approaches struggle to handle dynamic scenes. To address these limitations, we propose a novel monocular active SLAM method, Dream-SLAM, which is based on dreaming cross-spatio-temporal images and semantically plausible structures of partially observed dynamic environments. The generated cross-spatio-temporal im- ages are fused with real observations to mitigate noise and data incompleteness, leading to more accurate camera pose estimation and a more coherent 3D scene representation. Furthermore, we integrate dreamed and observed scene structures to enable long- horizon planning, producing farsighted trajectories that promote efficient and thorough exploration. Extensive experiments on both public and self-collected datasets demonstrate that Dream-SLAM outperforms state-of-the-art methods in localization accuracy, mapping quality, and exploration efficiency. Source code will be publicly available upon paper acceptance.
- Abstract(参考訳): SLAMは、同時ローカライゼーションとマッピング(SLAM)のコアタスクに加えて、未知の環境を効果的かつ効率的に探索するロボットアクションを生成する。
しかし、既存のSLAMパイプラインは3つの主な要因によって制限されている。
まず、基盤となるSLAMモジュールの制約を継承する。
第二に、彼らの動き計画戦略は一般的に近視眼的であり、長期的なビジョンを欠いている。
第三に、ほとんどのアプローチは動的なシーンを扱うのに苦労しています。
これらの制約に対処するために,一眼レフ型SLAM法Dream-SLAMを提案する。
生成した時空間的即時年齢は、ノイズやデータの不完全性を軽減し、より正確なカメラポーズ推定とよりコヒーレントな3Dシーン表現をもたらす。
さらに、夢と観察されたシーン構造を統合して長期の地平面計画を可能にし、効率的かつ徹底的な探索を促進する遠視軌道を創出する。
公開データセットと自己収集データセットの両方に対する大規模な実験は、Dream-SLAMがローカライズ精度、マッピング品質、探索効率において最先端の手法より優れていることを示した。
ソースコードは、論文の受理時に公開される。
関連論文リスト
- Seeing Space and Motion: Enhancing Latent Actions with Spatial and Dynamic Awareness for VLA [21.362682837521632]
Latent Action Models (LAMs) は、視覚言語制御システムにおいて、大規模な無注釈データからセマンティック・アクション・リセプションを学習することを可能にする。
Farsighted-LAMを提案する。これは幾何学的空間符号化とマルチスケール時間的モデリングを備えた潜在アクションフレームワークである。
さらに,Farsighted-LAM上に構築されたエンドツーエンドVLAフレームワークであるSSM-VLAを提案する。
論文 参考訳(メタデータ) (2025-09-30T13:41:43Z) - DreamVLA: A Vision-Language-Action Model Dreamed with Comprehensive World Knowledge [41.030494146004806]
本稿では,逆動力学モデリングを実現するために,包括的世界知識予測を統合した新しいVLAフレームワークであるDreamVLAを提案する。
DreamVLAは、動的領域誘導の世界知識予測を導入し、空間的および意味的な手がかりと統合し、アクション計画のためのコンパクトで包括的な表現を提供する。
実世界とシミュレーション環境での実験では、ドリームVLAが実際のロボットタスクで76.7%の成功率を達成したことが示されている。
論文 参考訳(メタデータ) (2025-07-06T16:14:29Z) - MCN-SLAM: Multi-Agent Collaborative Neural SLAM with Hybrid Implicit Neural Scene Representation [51.07118703442774]
既存のNeRFベースのマルチエージェントSLAMフレームワークは通信帯域幅の制約を満たすことができない。
本稿では,ハイブリッドシーン表現を用いた分散マルチエージェント協調型ニューラルSLAMフレームワークを提案する。
シーン再構成を改善するために, 新規な三面体グリッド共同シーン表現法を提案する。
局所的(単一エージェント)と大域的(複数エージェント)の整合性を実現するために,新しいイントラ・トゥ・インターループ・クロージャ法が設計された。
論文 参考訳(メタデータ) (2025-06-23T14:22:29Z) - MCOO-SLAM: A Multi-Camera Omnidirectional Object SLAM System [19.16370123474815]
本稿では,MCOO-SLAMを提案する。
我々のアプローチは、オープン語彙意味論で強化された点特徴とオブジェクトレベルのランドマークを統合する。
実世界の大規模な実験により、MCOO-SLAMは正確なローカライゼーションとスケーラブルなオブジェクトレベルのマッピングを実現することが示された。
論文 参考訳(メタデータ) (2025-06-18T12:20:34Z) - Multimodal LLM Guided Exploration and Active Mapping using Fisher Information [33.19609196571658]
本稿では,3次元ガウス散乱(3DGS)表現を用いた長期探査目標と短期行動の両方を計画するアクティブマッピングシステムを提案する。
GibsonとHabitat-Matterportの3Dデータセットで行った実験は、提案手法の最先端の結果を示している。
論文 参考訳(メタデータ) (2024-10-22T20:51:45Z) - Det-SLAM: A semantic visual SLAM for highly dynamic scenes using
Detectron2 [0.0]
本研究では,視覚的SLAMシステムであるORB-SLAM3とディテクトロン2を組み合わせて,Det-SLAMシステムを提案する。
Det-SLAMは従来の動的SLAMシステムよりも弾力性が高く、動的屋内シナリオにおけるカメラ姿勢推定誤差を低減できる。
論文 参考訳(メタデータ) (2022-10-01T13:25:11Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM [2.9822184411723645]
DynaSLAM IIは、ステレオおよびRGB-D構成のための視覚的SLAMシステムであり、マルチオブジェクト追跡機能を密に統合している。
動的物体の追跡はシーン理解のための豊富な手がかりを提供するだけでなく、カメラ追跡にも有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T15:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。