論文の概要: Autonomous Exploration and Semantic Updating of Large-Scale Indoor Environments with Mobile Robots
- arxiv url: http://arxiv.org/abs/2409.15493v1
- Date: Mon, 23 Sep 2024 19:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 12:57:29.196363
- Title: Autonomous Exploration and Semantic Updating of Large-Scale Indoor Environments with Mobile Robots
- Title(参考訳): 移動ロボットを用いた大規模屋内環境の自律探査とセマンティック更新
- Authors: Sai Haneesh Allu, Itay Kadosh, Tyler Summers, Yu Xiang,
- Abstract要約: 移動ロボットが未知の環境を自律的に探索できる新しいロボットシステムを提案する。
ロボットは、93m×90mのフロアを意味的にマッピングし、オブジェクトが環境に移動されるとセマンティックマップを更新する。
- 参考スコア(独自算出の注目度): 1.8791971592960612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new robotic system that enables a mobile robot to autonomously explore an unknown environment, build a semantic map of the environment, and subsequently update the semantic map to reflect environment changes, such as location changes of objects. Our system leverages a LiDAR scanner for 2D occupancy grid mapping and an RGB-D camera for object perception. We introduce a semantic map representation that combines a 2D occupancy grid map for geometry, with a topological map for object semantics. This map representation enables us to effectively update the semantics by deleting or adding nodes to the topological map. Our system has been tested on a Fetch robot. The robot can semantically map a 93m x 90m floor and update the semantic map once objects are moved in the environment.
- Abstract(参考訳): 本研究では,移動ロボットが未知の環境を自律的に探索し,環境の意味マップを構築し,その後にオブジェクトの位置変化などの環境変化を反映した意味マップを更新するロボットシステムを提案する。
本システムは2次元グリッドマッピングのためのLiDARスキャナとオブジェクト認識のためのRGB-Dカメラを利用する。
本稿では,幾何学用2次元グリッドマップとオブジェクト意味論用トポロジカルマップを組み合わせた意味地図表現を提案する。
このマップ表現により、トポロジマップにノードを削除または追加することで、セマンティクスを効果的に更新できる。
私たちのシステムは、Fetchロボットでテストされています。
ロボットは、93m×90mのフロアを意味的にマッピングし、オブジェクトが環境に移動されるとセマンティックマップを更新する。
関連論文リスト
- Memorize What Matters: Emergent Scene Decomposition from Multitraverse [54.487589469432706]
3次元ガウス写像は3次元ガウス写像をベースとしたカメラのみのオフラインマッピングフレームワークである。
3DGMは、同じ領域から複数のRGBビデオをガウスベースの環境マップに変換し、同時に2D短命なオブジェクトセグメンテーションを実行する。
We build the Mapverse benchmark, sourced from the Ithaca365 and nuPlan datasets, to evaluate our method in unsupervised 2D segmentation, 3D reconstruction, and Neural rendering。
論文 参考訳(メタデータ) (2024-05-27T14:11:17Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Object Goal Navigation Based on Semantics and RGB Ego View [9.702784248870522]
本稿では,RGBエゴビューを前提として,サービスロボットが屋内環境のセマンティックな意思決定を行えるようにするためのアーキテクチャと方法論を提案する。
ロボットはジオセムマップ(幾何マップと意味マップのリレーショナル組み合わせ)に基づいてナビゲートする。
提案手法は, 平均完了時間に対するゲーミフィケーション評価において, 人間のユーザよりも優れていた。
論文 参考訳(メタデータ) (2022-10-20T19:23:08Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - Efficient Placard Discovery for Semantic Mapping During Frontier
Exploration [0.0]
この研究は、Interruptable Frontier Explorationアルゴリズムを導入し、ロボットが自身の環境を探索してSLAMマップを構築すると同時に、このプロセス中に観察されたプラカードを検査することを可能にする。
これにより、ロボットは人間の介入なしに部屋のプラカードを自律的に発見できる。
論文 参考訳(メタデータ) (2021-10-27T20:00:07Z) - Indoor Semantic Scene Understanding using Multi-modality Fusion [0.0]
本研究では,環境のセマンティックマップを生成するために,2次元および3次元検出枝を融合したセマンティックシーン理解パイプラインを提案する。
収集したデータセットで評価された以前の研究とは異なり、私たちはアクティブなフォトリアリスティックなロボット環境でパイプラインをテストする。
我々の新規性には、投影された2次元検出とオブジェクトサイズに基づくモダリティ融合を用いた3次元提案の修正が含まれる。
論文 参考訳(メタデータ) (2021-08-17T13:30:02Z) - Lifelong update of semantic maps in dynamic environments [2.343080600040765]
ロボットは周囲から知覚される生の情報を通じて世界を理解する。
ロボットとユーザの両方が理解している高度な情報を含むセマンティックマップは、共有表現としてより適している。
セマンティックマップをフロアクリーニングロボット群におけるユーザインタフェースとして使用しています。
論文 参考訳(メタデータ) (2020-10-17T18:44:33Z) - Extending Maps with Semantic and Contextual Object Information for Robot
Navigation: a Learning-Based Framework using Visual and Depth Cues [12.984393386954219]
本稿では,RGB-D画像からのセマンティック情報を用いて,シーンのメートル法表現を付加する問題に対処する。
オブジェクトレベルの情報を持つ環境の地図表現を拡張化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T15:05:23Z) - Visual Semantic SLAM with Landmarks for Large-Scale Outdoor Environment [47.96314050446863]
我々は,ORB SLAMの3DポイントクラウドとPSPNet-101のセマンティックセマンティックセグメンテーション情報を組み合わせて,大規模環境のセマンティック3Dマップを作成するシステムを構築した。
実世界のランドマークとポイントクラウドマップを関連付ける方法を見つけ、セマンティックマップに基づいたトポロジマップを構築した。
論文 参考訳(メタデータ) (2020-01-04T03:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。