論文の概要: Perception-Aware Autonomous Exploration in Feature-Limited Environments
- arxiv url: http://arxiv.org/abs/2603.15605v1
- Date: Mon, 16 Mar 2026 17:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.880344
- Title: Perception-Aware Autonomous Exploration in Feature-Limited Environments
- Title(参考訳): 特徴限定環境における知覚認識型自律探査
- Authors: Moji Shi, Rajitha de Silva, Hang Yu, Riccardo Polvara, Marija Popović,
- Abstract要約: ステレオ搭載無人航空機(UAV)のための階層的知覚認識探索フレームワークを提案する。
提案手法は,グローバルな特徴マップを用いて,各候補フロンティアと期待される特徴品質を関連付け,視覚的に有意なサブゴールを優先する。
提案手法は,特徴品質を無視し,かつ連続ヨーを最適化しないベースラインと比較して,より信頼性の高い特徴追跡を維持でき,ドリフトを低減でき,また,オドメトリ誤差が特定の閾値を超える前に平均30%高いカバレッジを達成できる。
- 参考スコア(独自算出の注目度): 9.046854275196605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous exploration in unknown environments typically relies on onboard state estimation for localisation and mapping. Existing exploration methods primarily maximise coverage efficiency, but often overlook that visual-inertial odometry (VIO) performance strongly depends on the availability of robust visual features. As a result, exploration policies can drive a robot into feature-sparse regions where tracking degrades, leading to odometry drift, corrupted maps, and mission failure. We propose a hierarchical perception-aware exploration framework for a stereo-equipped unmanned aerial vehicle (UAV) that explicitly couples exploration progress with feature observability. Our approach (i) associates each candidate frontier with an expected feature quality using a global feature map, and prioritises visually informative subgoals, and (ii) optimises a continuous yaw trajectory along the planned motion to maintain stable feature tracks. We evaluate our method in simulation across environments with varying texture levels and in real-world indoor experiments with largely textureless walls. Compared to baselines that ignore feature quality and/or do not optimise continuous yaw, our method maintains more reliable feature tracking, reduces odometry drift, and achieves on average 30\% higher coverage before the odometry error exceeds specified thresholds.
- Abstract(参考訳): 未知の環境での自律的な探索は、通常、ローカライゼーションとマッピングのために、オンボードの状態推定に依存する。
既存の探索手法は主にカバレッジ効率を最大化するが、視覚慣性計測(VIO)の性能は堅牢な視覚的特徴の可用性に強く依存しているとしばしば見落としている。
結果として、探索ポリシーは、ロボットを機能不足地域へと駆り立て、追跡が劣化し、視線ドリフト、地図の破損、ミッション失敗につながる。
本研究では,立体装備無人航空機 (UAV) の階層的認識型探査フレームワークを提案する。
私たちのアプローチ
(i)グローバル特徴マップを用いて各候補フロンティアと期待される特徴品質を関連付け、視覚的情報的サブゴールを優先する。
(ii) 安定な特徴トラックを維持するために、計画された運動に沿って連続ヨー軌道を最適化する。
本手法は, 各種テクスチャレベルの異なる環境におけるシミュレーションや, ほとんどテクスチャのない壁を用いた屋内実環境実験において評価した。
提案手法は,特徴品質を無視したベースラインや連続ヨーを最適化しないベースラインと比較して,より信頼性の高い特徴追跡を維持し,ドリフトを低減し,オドメトリ誤差が特定の閾値を超える前に平均30倍のカバレッジを達成する。
関連論文リスト
- IndustryNav: Exploring Spatial Reasoning of Embodied Agents in Dynamic Industrial Navigation [56.43007596544299]
IndustryNavは、アクティブな空間推論のための最初の動的産業用ナビゲーションベンチマークである。
9つの最先端のVisual Large Language Modelsの研究によると、クローズドソースモデルは一貫した優位性を維持している。
論文 参考訳(メタデータ) (2025-11-21T16:48:49Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Information Gain Is Not All You Need [3.053906384469777]
本稿では,情報ゲインが品質制約探索における最適化目標として機能すべきでないことを論じる。
本稿では,ロボットの近距離と他のフロンティアからの遠距離とのトレードオフに基づいてフロンティアを選択する,新しい距離優位性を提案する。
論文 参考訳(メタデータ) (2025-03-28T15:03:52Z) - Real-time Spatial-temporal Traversability Assessment via Feature-based Sparse Gaussian Process [15.756895046886406]
本研究では,自律型ロボットが複雑な地形を移動できるようにすることを目的とした,空間的時間的トラバーサビリティ評価手法を提案する。
我々の手法は精度と計算効率の両面でSOTAよりも優れている。
本研究では,移動可能性マップと統合された自律ナビゲーションフレームワークを開発し,複雑な屋外環境下での微分駆動車による検証を行う。
論文 参考訳(メタデータ) (2025-03-06T06:26:57Z) - Enhancing Feature Tracking Reliability for Visual Navigation using Real-Time Safety Filter [23.90865158642276]
視覚センサーはロボットのポーズのローカライズに広く使われている。
信頼できる機能追跡と正確なポーズ推定のためには、十分な数の機能の可視性を維持することが不可欠である。
本稿では,2次プログラミングに基づくリアルタイム安全フィルタを提案する。
論文 参考訳(メタデータ) (2025-02-03T06:26:04Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [53.5449912019877]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Trajectory-Constrained Deep Latent Visual Attention for Improved Local
Planning in Presence of Heterogeneous Terrain [35.12388111707609]
本稿では、地図のない局所的な視覚ナビゲーションタスクにおいて、軌跡制約のある視覚的注意を特徴とする報酬予測型モデルに基づくディープラーニング手法を提案する。
提案手法では,車両制御動作による軌跡に追従する潜在画像空間内の位置に視覚的注意を向けることで,計画中の予測精度を向上させる。
我々は,オフロード環境における低乱流,無衝突軌道の計画,滑りやすい地形下でのロック差のある丘登りといった視覚ナビゲーションタスクにおいて,我々のモデルを検証した。
論文 参考訳(メタデータ) (2021-12-09T03:38:28Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。