論文の概要: NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments
- arxiv url: http://arxiv.org/abs/2506.18689v1
- Date: Mon, 23 Jun 2025 14:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.025935
- Title: NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments
- Title(参考訳): NOVA:非構造GPS環境における高速目標追跡のためのオブジェクト中心視覚オートノミーによるナビゲーション
- Authors: Alessandro Saviolo, Giuseppe Loianno,
- Abstract要約: 我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
- 参考スコア(独自算出の注目度): 56.35569661650558
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Autonomous aerial target tracking in unstructured and GPS-denied environments remains a fundamental challenge in robotics. Many existing methods rely on motion capture systems, pre-mapped scenes, or feature-based localization to ensure safety and control, limiting their deployment in real-world conditions. We introduce NOVA, a fully onboard, object-centric framework that enables robust target tracking and collision-aware navigation using only a stereo camera and an IMU. Rather than constructing a global map or relying on absolute localization, NOVA formulates perception, estimation, and control entirely in the target's reference frame. A tightly integrated stack combines a lightweight object detector with stereo depth completion, followed by histogram-based filtering to infer robust target distances under occlusion and noise. These measurements feed a visual-inertial state estimator that recovers the full 6-DoF pose of the robot relative to the target. A nonlinear model predictive controller (NMPC) plans dynamically feasible trajectories in the target frame. To ensure safety, high-order control barrier functions are constructed online from a compact set of high-risk collision points extracted from depth, enabling real-time obstacle avoidance without maps or dense representations. We validate NOVA across challenging real-world scenarios, including urban mazes, forest trails, and repeated transitions through buildings with intermittent GPS loss and severe lighting changes that disrupt feature-based localization. Each experiment is repeated multiple times under similar conditions to assess resilience, showing consistent and reliable performance. NOVA achieves agile target following at speeds exceeding 50 km/h. These results show that high-speed vision-based tracking is possible in the wild using only onboard sensing, with no reliance on external localization or environment assumptions.
- Abstract(参考訳): ロボット工学の基本的な課題は、非構造およびGPSによる自律的航空目標追跡である。
既存の多くの方法は、モーションキャプチャシステム、事前マップされたシーン、機能ベースのローカライゼーションに頼り、安全性と制御を確保し、実際の環境への展開を制限する。
ステレオカメラとIMUのみを使用して、ロバストな目標追跡と衝突認識ナビゲーションを可能にする、完全に搭載されたオブジェクト中心のフレームワークであるNOVAを紹介する。
グローバルマップの構築や絶対的なローカライゼーションに頼るのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
密に統合されたスタックは、軽量物体検出器とステレオ深度を結合し、次いでヒストグラムに基づくフィルタリングにより、閉塞とノイズの下で頑健な目標距離を推定する。
これらの測定は、目標に対してロボットの完全な6-DoFポーズを回復する視覚慣性状態推定器を提供する。
非線形モデル予測コントローラ(NMPC)は、ターゲットフレーム内で動的に実行可能な軌道を計画する。
安全性を確保するため、高次制御障壁関数は、深さから抽出した高リスク衝突点のコンパクトな集合からオンラインで構築され、マップや密度表現なしでリアルタイムな障害物回避を可能にする。
都会の迷路や森の小道、間欠的なGPSの喪失や、特徴に基づくローカライゼーションを阻害する深刻な照明変化を伴う建物を何度も移行するといった、現実の挑戦的なシナリオにまたがってNOVAを検証する。
それぞれの実験は、同様の条件下で何度も繰り返してレジリエンスを評価し、一貫性と信頼性のあるパフォーマンスを示す。
NOVAは50km/hを超える速度でアジャイル目標を達成する。
これらの結果から,外的位置決めや環境仮定に依存しないオンボードセンシングのみを用いて,高速な視線追跡が可能であることが示唆された。
関連論文リスト
- Benchmarking Vision-Based Object Tracking for USVs in Complex Maritime Environments [0.8796261172196743]
視覚に基づく目標追跡は無人表面車両にとって不可欠である。
海上環境におけるリアルタイムトラッキングは、動的なカメラの動き、視界の低さ、スケールの変動によって困難である。
本研究では,USVのための視覚誘導型物体追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-10T10:35:17Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment [14.363948775085534]
屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-10-02T03:12:03Z) - Large-scale Autonomous Flight with Real-time Semantic SLAM under Dense
Forest Canopy [48.51396198176273]
本研究では,大規模自律飛行とリアルタイムセマンティックマッピングを,挑戦的なアンダーキャノピー環境下で実現可能な統合システムを提案する。
我々は、スキャン全体で関連付けられ、木のトランクモデルと同様にロボットのポーズを制約するために使用されるLiDARデータから、木の幹と地面の平面を検出し、モデル化する。
ドリフト補償機構は、プランナー最適性とコントローラ安定性を維持しつつ、セマンティックSLAM出力を用いたドリフトをリアルタイムで最小化するように設計されている。
論文 参考訳(メタデータ) (2021-09-14T07:24:53Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Dynamic Radar Network of UAVs: A Joint Navigation and Tracking Approach [36.587096293618366]
新たな問題は、建物の後ろに隠れている無人小型無人航空機(UAV)を追跡することである。
本稿では,悪意のある標的のリアルタイムかつ高精度な追跡のためのUAVの動的レーダネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-13T23:23:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。