論文の概要: GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes
- arxiv url: http://arxiv.org/abs/2505.20294v1
- Date: Mon, 26 May 2025 17:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.148629
- Title: GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes
- Title(参考訳): GLEAM:複雑な3次元屋内シーンにおけるアクティブマッピングのための一般探索政策の学習
- Authors: Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue,
- Abstract要約: 複雑な未知環境における一般化可能なアクティブマッピングは、移動ロボットにとって重要な課題である。
我々は、アクティブマッピングのための統一的な一般化可能な探索ポリシーであるGLEAMを紹介する。
最先端の手法を大きく上回り、66.50%のカバレッジ(+9.49%)を効率の良い軌道で達成し、128の複雑なシーンでのマッピング精度を改善した。
- 参考スコア(独自算出の注目度): 21.208049616708042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalizable active mapping in complex unknown environments remains a critical challenge for mobile robots. Existing methods, constrained by insufficient training data and conservative exploration strategies, exhibit limited generalizability across scenes with diverse layouts and complex connectivity. To enable scalable training and reliable evaluation, we introduce GLEAM-Bench, the first large-scale benchmark designed for generalizable active mapping with 1,152 diverse 3D scenes from synthetic and real-scan datasets. Building upon this foundation, we propose GLEAM, a unified generalizable exploration policy for active mapping. Its superior generalizability comes mainly from our semantic representations, long-term navigable goals, and randomized strategies. It significantly outperforms state-of-the-art methods, achieving 66.50% coverage (+9.49%) with efficient trajectories and improved mapping accuracy on 128 unseen complex scenes. Project page: https://xiao-chen.tech/gleam/.
- Abstract(参考訳): 複雑な未知環境における一般化可能なアクティブマッピングは、モバイルロボットにとって重要な課題である。
既存の手法は、不十分なトレーニングデータと保守的な探索戦略によって制約され、多様なレイアウトと複雑な接続性を持つシーン間で限定的な一般化性を示す。
スケーラブルなトレーニングと信頼性評価を実現するため,GLEAM-Benchを導入した。GLEAM-Benchは,合成および実スキャンデータセットから,1,152の多様な3Dシーンを用いて,一般化可能なアクティブマッピングを設計した最初の大規模ベンチマークである。
この基盤の上に構築されたGLEAMは、アクティブマッピングのための統一的な一般化可能な探索ポリシーである。
その優れた一般化可能性は主に、我々の意味表現、長期航行可能な目標、ランダム化された戦略から来ています。
最先端の手法を大きく上回り、66.50%のカバレッジ(+9.49%)を効率の良い軌道で達成し、128の複雑なシーンでのマッピング精度を改善した。
プロジェクトページ:https://xiao-chen.tech/gleam/.com
関連論文リスト
- Learning to Drive Anywhere with Model-Based Reannotation [49.80796496905606]
ロボットの視覚ナビゲーションポリシーを一般化するためのフレームワークを開発する。
クラウドソースの遠隔操作データや、ラベルなしのYouTubeビデオなど、受動的に収集されたデータを活用します。
このデータはLogoNavに蒸留される。LogoNavは、視覚的目標やGPSのウェイポイントに照準を合わせられた長い水平航法ポリシーだ。
論文 参考訳(メタデータ) (2025-05-08T18:43:39Z) - ActiveGAMER: Active GAussian Mapping through Efficient Rendering [27.914247021088237]
ActiveGAMERは3Dガウススプラッティング(3DGS)を利用して高品質でリアルタイムなシーンマッピングと探索を実現するアクティブマッピングシステムである。
我々のシステムは、最先端のレンダリングと光度精度と完全性で環境を自律的に探索し、再構築する。
論文 参考訳(メタデータ) (2025-01-12T18:38:51Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Graph augmented Deep Reinforcement Learning in the GameRLand3D
environment [11.03710870581386]
強化学習で訓練された低レベルポリシーとグラフに基づく高レベル古典プランナを組み合わせたハイブリッド手法を提案する。
本研究では,広範囲な環境下でのエンドツーエンドの深部RLアプローチの限界を定量的に検証する。
また、新しいベンチマークである"GameRLand3D"を導入し、間もなくリリースされる環境では、ナビゲーションタスクのための複雑な手続き型3Dマップを生成することができる。
論文 参考訳(メタデータ) (2021-12-22T08:48:00Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。