論文の概要: Understanding while Exploring: Semantics-driven Active Mapping
- arxiv url: http://arxiv.org/abs/2506.00225v1
- Date: Fri, 30 May 2025 21:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.511888
- Title: Understanding while Exploring: Semantics-driven Active Mapping
- Title(参考訳): 探索中の理解: セマンティック駆動型アクティブマッピング
- Authors: Liyan Chen, Huangying Zhan, Hairong Yin, Yi Xu, Philippos Mordohai,
- Abstract要約: ActiveSGMは、実行前に潜在的観測の有意性を予測するために設計された、アクティブなセマンティックマッピングフレームワークである。
ロボットが最も有益な視点を戦略的に選択できるようにすることで、ActiveSGMは、ノイズの多いセマンティックデータに対するマッピング完全性、正確性、堅牢性を効率的に強化する。
ReplicaとMatterport3Dデータセットの実験は、アクティブセマンティックマッピングタスクにおけるActiveSGMの有効性を強調した。
- 参考スコア(独自算出の注目度): 15.159760685637366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective robotic autonomy in unknown environments demands proactive exploration and precise understanding of both geometry and semantics. In this paper, we propose ActiveSGM, an active semantic mapping framework designed to predict the informativeness of potential observations before execution. Built upon a 3D Gaussian Splatting (3DGS) mapping backbone, our approach employs semantic and geometric uncertainty quantification, coupled with a sparse semantic representation, to guide exploration. By enabling robots to strategically select the most beneficial viewpoints, ActiveSGM efficiently enhances mapping completeness, accuracy, and robustness to noisy semantic data, ultimately supporting more adaptive scene exploration. Our experiments on the Replica and Matterport3D datasets highlight the effectiveness of ActiveSGM in active semantic mapping tasks.
- Abstract(参考訳): 未知の環境における効果的なロボットの自律性は、積極的に探索し、幾何学と意味論の両方を正確に理解することを要求する。
本稿では,アクティベートなセマンティックマッピングフレームワークであるActiveSGMを提案する。
提案手法は,3次元ガウススプラッティング(3DGS)マッピングバックボーンをベースとして,意味的および幾何的不確かさの定量化と,スパースな意味表現を併用して探索をガイドする。
ロボットが最も有益な視点を戦略的に選択できるようにすることで、ActiveSGMは、ノイズの多いセマンティックデータに対するマッピング完全性、正確性、堅牢性を効果的に強化し、最終的にはより適応的なシーン探索をサポートする。
ReplicaとMatterport3Dデータセットの実験は、アクティブセマンティックマッピングタスクにおけるActiveSGMの有効性を強調した。
関連論文リスト
- Semantic Exploration and Dense Mapping of Complex Environments using Ground Robots Equipped with LiDAR and Panoramic Camera [7.330549613211134]
本稿では,LiDAR-パノラマカメラスイートを備えた地上ロボットを用いて,複雑な未知環境の自律的セマンティック探索と密集的セマンティックターゲットマッピングを行うシステムを提案する。
そこで我々はまず,幾何的カバレッジと意味的視点の両方の観察を完遂するタスクを再定義し,その後,意味的視点と幾何学的視点を別々に管理し,局所的な視点を生成するための新たな優先順位駆動型デカップリング型局所サンプリングを提案する。
さらに,ロボットの安全性を確保しつつ,積極的な探索行動を可能にする安全な攻撃的探索状態マシンを提案する。
論文 参考訳(メタデータ) (2025-05-28T21:27:32Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - ActiveGAMER: Active GAussian Mapping through Efficient Rendering [27.914247021088237]
ActiveGAMERは3Dガウススプラッティング(3DGS)を利用して高品質でリアルタイムなシーンマッピングと探索を実現するアクティブマッピングシステムである。
我々のシステムは、最先端のレンダリングと光度精度と完全性で環境を自律的に探索し、再構築する。
論文 参考訳(メタデータ) (2025-01-12T18:38:51Z) - SADG: Segment Any Dynamic Gaussian Without Object Trackers [39.77468734311312]
SADG(Segment Any Dynamic Gaussian Without Object Trackers)は、オブジェクトIDに依存しない動的ガウス分割表現と意味情報を組み合わせた新しいアプローチである。
我々は,Segment Anything Model(SAM)から生成されるマスクを活用し,ハードピクセルマイニングに基づく新しいコントラスト学習目標を活用することで,意味論的特徴を学習する。
提案したベンチマーク上でSADGを評価し,動的シーン内のオブジェクトのセグメンテーションにおけるアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-28T17:47:48Z) - Object-Oriented Material Classification and 3D Clustering for Improved Semantic Perception and Mapping in Mobile Robots [6.395242048226456]
本稿では,オブジェクト指向パイプライン上に構築されたRGB-D教材分類のための補足型ディープラーニング手法を提案する。
本研究では,3次元セマンティックシーンマッピングの最先端手法と比較して,材料分類と3次元クラスタリングの精度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-08T16:25:01Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。