論文の概要: SuperEx: Enhancing Indoor Mapping and Exploration using Non-Line-of-Sight Perception
- arxiv url: http://arxiv.org/abs/2510.10506v1
- Date: Sun, 12 Oct 2025 08:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.980881
- Title: SuperEx: Enhancing Indoor Mapping and Exploration using Non-Line-of-Sight Perception
- Title(参考訳): SuperEx:非視線知覚による屋内マッピングと探索の強化
- Authors: Kush Garg, Akshat Dave,
- Abstract要約: 本研究では,ロボット探査に非視線センシング(NLOS)を導入している。
我々は、隠れた物体の存在をエンコードする飛行時間ヒストグラムをキャプチャする単一光子LiDARを利用する。
我々は,NLOSセンシングを直接地図探索ループに統合するフレームワークであるSuperExを紹介する。
- 参考スコア(独自算出の注目度): 4.882290104560518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient exploration and mapping in unknown indoor environments is a fundamental challenge, with high stakes in time-critical settings. In current systems, robot perception remains confined to line-of-sight; occluded regions remain unknown until physically traversed, leading to inefficient exploration when layouts deviate from prior assumptions. In this work, we bring non-line-of-sight (NLOS) sensing to robotic exploration. We leverage single-photon LiDARs, which capture time-of-flight histograms that encode the presence of hidden objects - allowing robots to look around blind corners. Recent single-photon LiDARs have become practical and portable, enabling deployment beyond controlled lab settings. Prior NLOS works target 3D reconstruction in static, lab-based scenarios, and initial efforts toward NLOS-aided navigation consider simplified geometries. We introduce SuperEx, a framework that integrates NLOS sensing directly into the mapping-exploration loop. SuperEx augments global map prediction with beyond-line-of-sight cues by (i) carving empty NLOS regions from timing histograms and (ii) reconstructing occupied structure via a two-step physics-based and data-driven approach that leverages structural regularities. Evaluations on complex simulated maps and the real-world KTH Floorplan dataset show a 12% gain in mapping accuracy under < 30% coverage and improved exploration efficiency compared to line-of-sight baselines, opening a path to reliable mapping beyond direct visibility.
- Abstract(参考訳): 未知の屋内環境における効率的な探索とマッピングは、時間的クリティカルな環境において高い利害関係を持つ基本的な課題である。
現在のシステムでは、ロボットの知覚は視線に限られており、閉鎖された領域は物理的に移動するまで未知のままであり、レイアウトが以前の仮定から逸脱した場合、非効率な探索に繋がる。
本研究では,ロボット探査に非視線センシング(NLOS)を導入している。
単一の光子LiDARを利用することで、飛行時間ヒストグラムを捉え、隠れた物体の存在をエンコードします。
最近の単一光子LiDARは実用的で携帯性が高くなり、制御されたラボ環境を超えて展開できるようになった。
以前のNLOSは、静的なラボベースのシナリオで3D再構成を目標としており、NLOS支援ナビゲーションへの最初の取り組みは、単純化されたジオメトリを考慮に入れている。
我々は,NLOSセンシングを直接地図探索ループに統合するフレームワークであるSuperExを紹介する。
SuperExは、視界外からの視線による世界地図の予測を強化
一 タイミングヒストグラムから空のNLOS領域を彫ること
(II) 構造規則性を活用する2段階の物理とデータ駆動のアプローチによる占有構造再構築。
複雑なシミュレーションマップと実世界のKTH Floorplanデータセットの評価では、30%のカバレッジでマッピング精度が12%向上し、視線ベースラインに比べて探索効率が向上し、直接視界を超えた信頼できるマッピングへの道が開かれた。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - FrontierNet: Learning Visual Cues to Explore [54.8265603996238]
この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本稿では、FrontierNetをコアコンポーネントとする、視覚のみのフロンティアベースの探索システムを提案する。
提案手法は,既存の3次元目標抽出手法に代わるもので,早期探索効率の15%向上を実現している。
論文 参考訳(メタデータ) (2025-01-08T16:25:32Z) - Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。