論文の概要: Semantic Exploration and Dense Mapping of Complex Environments using Ground Robots Equipped with LiDAR and Panoramic Camera
- arxiv url: http://arxiv.org/abs/2505.22880v1
- Date: Wed, 28 May 2025 21:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.547715
- Title: Semantic Exploration and Dense Mapping of Complex Environments using Ground Robots Equipped with LiDAR and Panoramic Camera
- Title(参考訳): LiDARとパノラマカメラを備えた地上ロボットによる複雑な環境のセマンティック探索と密度マッピング
- Authors: Xiaoyang Zhan, Shixin Zhou, Qianqian Yang, Yixuan Zhao, Hao Liu, Srinivas Chowdary Ramineni, Kenji Shimada,
- Abstract要約: 本稿では,LiDAR-パノラマカメラスイートを備えた地上ロボットを用いて,複雑な未知環境の自律的セマンティック探索と密集的セマンティックターゲットマッピングを行うシステムを提案する。
そこで我々はまず,幾何的カバレッジと意味的視点の両方の観察を完遂するタスクを再定義し,その後,意味的視点と幾何学的視点を別々に管理し,局所的な視点を生成するための新たな優先順位駆動型デカップリング型局所サンプリングを提案する。
さらに,ロボットの安全性を確保しつつ,積極的な探索行動を可能にする安全な攻撃的探索状態マシンを提案する。
- 参考スコア(独自算出の注目度): 7.330549613211134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a system for autonomous semantic exploration and dense semantic target mapping of a complex unknown environment using a ground robot equipped with a LiDAR-panoramic camera suite. Existing approaches often struggle to balance collecting high-quality observations from multiple view angles and avoiding unnecessary repetitive traversal. To fill this gap, we propose a complete system combining mapping and planning. We first redefine the task as completing both geometric coverage and semantic viewpoint observation. We then manage semantic and geometric viewpoints separately and propose a novel Priority-driven Decoupled Local Sampler to generate local viewpoint sets. This enables explicit multi-view semantic inspection and voxel coverage without unnecessary repetition. Building on this, we develop a hierarchical planner to ensure efficient global coverage. In addition, we propose a Safe Aggressive Exploration State Machine, which allows aggressive exploration behavior while ensuring the robot's safety. Our system includes a plug-and-play semantic target mapping module that integrates seamlessly with state-of-the-art SLAM algorithms for pointcloud-level dense semantic target mapping. We validate our approach through extensive experiments in both realistic simulations and complex real-world environments. Simulation results show that our planner achieves faster exploration and shorter travel distances while guaranteeing a specified number of multi-view inspections. Real-world experiments further confirm the system's effectiveness in achieving accurate dense semantic object mapping of unstructured environments.
- Abstract(参考訳): 本稿では,LiDAR-パノラマカメラスイートを備えた地上ロボットを用いて,複雑な未知環境の自律的セマンティック探索と密集的セマンティックターゲットマッピングを行うシステムを提案する。
既存のアプローチは、複数の視点から高品質な観測を収集し、不要な反復的トラバーサルを避けるのに苦労することが多い。
このギャップを埋めるために、マッピングと計画を組み合わせた完全なシステムを提案する。
まず、幾何学的カバレッジと意味論的視点の両方の観察を完遂するタスクを再定義する。
次に,セマンティックな視点と幾何学的な視点を別々に管理し,局所的な視点を生成するための優先順位駆動型デカップリング型局所サンプリングを提案する。
これにより、不要な繰り返しを伴わずに、明示的なマルチビューのセマンティックインスペクションとボクセルカバレッジを可能にする。
そこで我々は,効率的なグローバルカバレッジを確保するための階層型プランナを開発した。
さらに,ロボットの安全性を確保しつつ,積極的な探索行動を可能にする安全な攻撃的探索状態マシンを提案する。
本システムには,ポイントクラウドレベルの高密度なセマンティックターゲットマッピングのための最先端SLAMアルゴリズムとシームレスに統合する,プラグアンドプレイ型セマンティックターゲットマッピングモジュールが含まれている。
我々は,現実的なシミュレーションと複雑な実環境の両方における広範な実験を通じて,我々のアプローチを検証する。
シミュレーションの結果,提案するプランナーは,所定回数のマルチビュー検査を保証しつつ,より高速な探索と旅行距離の短縮を実現していることがわかった。
実世界の実験は、非構造化環境の正確な密なセマンティックオブジェクトマッピングを実現する上で、システムの有効性をさらに確認する。
関連論文リスト
- FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment [16.987872206495897]
FindAnythingは、視覚言語情報を高密度のボリュームサブマップに組み込むオープンワールドマッピングフレームワークである。
当社のシステムは,MAVなどのリソース制約されたデバイスにデプロイされる最初のシステムである。
論文 参考訳(メタデータ) (2025-04-11T15:12:05Z) - Embodied Instruction Following in Unknown Environments [66.60163202450954]
未知環境における複雑なタスクに対するEIF(Embodied instruction following)法を提案する。
我々は,ハイレベルなタスクプランナと低レベルな探索コントローラを含む,階層的な具体化命令に従うフレームワークを構築した。
タスクプランナに対しては、タスク完了プロセスと既知の視覚的手がかりに基づいて、人間の目標達成のための実行可能なステップバイステッププランを生成する。
論文 参考訳(メタデータ) (2024-06-17T17:55:40Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Large-scale Autonomous Flight with Real-time Semantic SLAM under Dense
Forest Canopy [48.51396198176273]
本研究では,大規模自律飛行とリアルタイムセマンティックマッピングを,挑戦的なアンダーキャノピー環境下で実現可能な統合システムを提案する。
我々は、スキャン全体で関連付けられ、木のトランクモデルと同様にロボットのポーズを制約するために使用されるLiDARデータから、木の幹と地面の平面を検出し、モデル化する。
ドリフト補償機構は、プランナー最適性とコントローラ安定性を維持しつつ、セマンティックSLAM出力を用いたドリフトをリアルタイムで最小化するように設計されている。
論文 参考訳(メタデータ) (2021-09-14T07:24:53Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。