論文の概要: Robust Robotic Exploration and Mapping Using Generative Occupancy Map Synthesis
- arxiv url: http://arxiv.org/abs/2506.20049v1
- Date: Tue, 24 Jun 2025 23:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.558162
- Title: Robust Robotic Exploration and Mapping Using Generative Occupancy Map Synthesis
- Title(参考訳): 生成操作マップ合成を用いたロバストなロボット探索とマッピング
- Authors: Lorin Achey, Alec Reed, Brendan Crowe, Bradley Hayes, Christoffer Heckman,
- Abstract要約: SceneSenseは3次元占有マップの予測のために設計・訓練された拡散モデルである。
提案手法は,これらの予測をリアルタイムに実行中の占有マップに融合し,地図の品質とトラバータビリティを大幅に向上させる。
- 参考スコア(独自算出の注目度): 3.7014661122784025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach for enhancing robotic exploration by using generative occupancy mapping. We introduce SceneSense, a diffusion model designed and trained for predicting 3D occupancy maps given partial observations. Our proposed approach probabilistically fuses these predictions into a running occupancy map in real-time, resulting in significant improvements in map quality and traversability. We implement SceneSense onboard a quadruped robot and validate its performance with real-world experiments to demonstrate the effectiveness of the model. In these experiments, we show that occupancy maps enhanced with SceneSense predictions better represent our fully observed ground truth data (24.44% FID improvement around the robot and 75.59% improvement at range). We additionally show that integrating SceneSense-enhanced maps into our robotic exploration stack as a "drop-in" map improvement, utilizing an existing off-the-shelf planner, results in improvements in robustness and traversability time. Finally we show results of full exploration evaluations with our proposed system in two dissimilar environments and find that locally enhanced maps provide more consistent exploration results than maps constructed only from direct sensor measurements.
- Abstract(参考訳): 生成的占有率マッピングを用いたロボット探査の高度化のための新しいアプローチを提案する。
SceneSenseは,部分的な観察により3次元占有マップを予測し,学習するための拡散モデルである。
提案手法は,これらの予測をリアルタイムに実行中の占有マップに融合させ,地図の品質とトラバーサビリティを著しく向上させる。
本研究では,四足歩行ロボットにSceneSenseを実装し,実環境実験による性能評価を行い,モデルの有効性を実証する。
これらの実験では、SceneSense予測で強化された占有地図は、我々の完全に観察された地上の真実データ(24.44%のFID改善と75.59%の範囲でのFID改善)をよりよく表している。
さらに,SceneSenseで強化されたマップをロボット探索スタックに組み込むことで,既存の市販プランナを活用することで,堅牢性とトラバーサビリティ時間が改善されることを示す。
最後に,2つの異なる環境下で提案したシステムによる完全な探索評価結果を示し,局所的に拡張された地図が直接センサ測定のみで構築された地図よりも一貫した探索結果を提供することを示した。
関連論文リスト
- ForesightNav: Learning Scene Imagination for Efficient Exploration [57.49417653636244]
人間の想像力と推論に触発された新しい探索戦略であるForesightNavを提案する。
提案手法は,ロボットエージェントに,未探索領域の占有状況や意味的詳細などの文脈情報を予測する能力を備える。
本研究では,Structured3Dデータセットを用いた想像力に基づくアプローチの有効性を検証し,シーン形状の予測において,正確な占有率予測と優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-22T17:38:38Z) - Map Prediction and Generative Entropy for Multi-Agent Exploration [37.938606877112]
我々は,探索ミッション中に,未知空間を多エージェント2次元占有マップに描画する地図予測器を開発した。
予測において高い不確実性を示す領域を同定し, 生成エントロピーの概念を定式化する。
提案手法により,従来の情報誘導手法よりもはるかに高速に正確なシーンを予測できることを示す。
論文 参考訳(メタデータ) (2025-01-22T19:40:04Z) - MapEx: Indoor Structure Exploration with Probabilistic Information Gain from Global Map Predictions [6.420382919565209]
我々は、しばしば予測可能で繰り返しパターンから構成される、構造化された屋内環境を探索するロボットに焦点を当てる。
近年の研究では、深層学習技術を用いて地図の未知領域を予測し、これらの予測を情報ゲイン計算に利用している。
本研究では,予測地図を用いて情報ゲイン推定のための確率的センサモデルを構築する新しい探索フレームワークであるMapExを紹介する。
論文 参考訳(メタデータ) (2024-09-23T22:48:04Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。