論文の概要: Visual Heading Prediction for Autonomous Aerial Vehicles
- arxiv url: http://arxiv.org/abs/2512.09898v1
- Date: Wed, 10 Dec 2025 18:27:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.635965
- Title: Visual Heading Prediction for Autonomous Aerial Vehicles
- Title(参考訳): 自律型航空車両の視覚的頭部予測
- Authors: Reza Ahmari, Ahmad Mohammadi, Vahid Hemmati, Mohammed Mynuddin, Parham Kebria, Mahmoud Nabil Mahmoud, Xiaohong Yuan, Abdollah Homaifar,
- Abstract要約: 本稿では,リアルタイムUAV-UGV統合のためのビジョンベース,データ駆動型フレームワークを提案する。
YOLOv5モデルを使用してUGVを検出し、バウンディングボックスの特徴を抽出し、軽量な人工知能ニューラルネットワーク(ANN)によってUAVの要求方向角を推定する。
訓練されたANNは平均絶対誤差0.1506、根平均二乗誤差0.1957を達成し、正確な方向角予測を行う。
- 参考スコア(独自算出の注目度): 0.9083675407657857
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of Unmanned Aerial Vehicles (UAVs) and Unmanned Ground Vehicles (UGVs) is increasingly central to the development of intelligent autonomous systems for applications such as search and rescue, environmental monitoring, and logistics. However, precise coordination between these platforms in real-time scenarios presents major challenges, particularly when external localization infrastructure such as GPS or GNSS is unavailable or degraded [1]. This paper proposes a vision-based, data-driven framework for real-time UAV-UGV integration, with a focus on robust UGV detection and heading angle prediction for navigation and coordination. The system employs a fine-tuned YOLOv5 model to detect UGVs and extract bounding box features, which are then used by a lightweight artificial neural network (ANN) to estimate the UAV's required heading angle. A VICON motion capture system was used to generate ground-truth data during training, resulting in a dataset of over 13,000 annotated images collected in a controlled lab environment. The trained ANN achieves a mean absolute error of 0.1506° and a root mean squared error of 0.1957°, offering accurate heading angle predictions using only monocular camera inputs. Experimental evaluations achieve 95% accuracy in UGV detection. This work contributes a vision-based, infrastructure- independent solution that demonstrates strong potential for deployment in GPS/GNSS-denied environments, supporting reliable multi-agent coordination under realistic dynamic conditions. A demonstration video showcasing the system's real-time performance, including UGV detection, heading angle prediction, and UAV alignment under dynamic conditions, is available at: https://github.com/Kooroshraf/UAV-UGV-Integration
- Abstract(参考訳): 無人航空機(UAV)と無人地上車両(UGV)の統合は、探索や救助、環境モニタリング、物流といった応用のためのインテリジェントな自律システムの開発の中心となっている。
しかし、リアルタイムシナリオにおけるこれらのプラットフォーム間の正確な調整は、特にGPSやGNSSのような外部ローカライゼーションインフラストラクチャが利用できない、あるいは劣化している場合に、大きな課題となる。
本稿では、航法と調整のためのロバストなUGV検出と方向角予測に焦点をあてた、リアルタイムUAV-UGV統合のための視覚ベースのデータ駆動フレームワークを提案する。
このシステムは細調整されたYOLOv5モデルを使用してUGVを検出し、バウンディングボックスの特徴を抽出し、UAVの要求方向角を推定するために軽量な人工知能ニューラルネットワーク(ANN)によって使用される。
VICONモーションキャプチャシステムは、トレーニング中に地上データを生成するために使用され、13,000以上の注釈付き画像のデータセットが制御された実験室で収集された。
トレーニングされたANNは平均絶対誤差0.1506°、ルート平均2乗誤差0. 1957°を達成し、単眼カメラ入力のみを用いて正確な方向角予測を行う。
実験により、UGV検出において95%の精度が得られた。
この研究は、現実的な動的条件下での信頼性の高いマルチエージェント協調をサポートするため、GPS/GNSS対応環境への展開の可能性を示す、ビジョンベースでインフラに依存しないソリューションに寄与する。
UGV検出、方向角予測、動的条件下でのUAVアライメントを含む、システムのリアルタイムパフォーマンスを示すデモビデオがhttps://github.com/Kooroshraf/UAV-UGV-Integrationで公開されている。
関連論文リスト
- AerialMind: Towards Referring Multi-Object Tracking in UAV Scenarios [64.51320327698231]
UAVシナリオにおける最初の大規模RMOTベンチマークであるAerialMindを紹介する。
我々は、革新的な半自動協調型エージェントベースラベリングアシスタントフレームワークを開発した。
また,視覚言語表現学習を協調的に強化する新しい手法であるHawkEyeTrackを提案する。
論文 参考訳(メタデータ) (2025-11-26T04:44:27Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Griffin: Aerial-Ground Cooperative Detection and Tracking Dataset and Benchmark [15.405137983083875]
航空と地上の協力は、UAVの空中視界と地上の車両の局部的な観測を統合することで、有望な解決策を提供する。
本稿では,3つの重要な貢献を通じて,地上3次元協調認識のための包括的ソリューションを提案する。
論文 参考訳(メタデータ) (2025-03-10T07:00:07Z) - VECTOR: Velocity-Enhanced GRU Neural Network for Real-Time 3D UAV Trajectory Prediction [2.1825723033513165]
シーケンスベースニューラルネットワークにおけるGRU(Gated Recurrent Units)を用いた新しいトラジェクトリ予測手法を提案する。
我々は、合成と実世界のUAV軌跡データの両方を使用し、幅広い飛行パターン、速度、機敏性を捉えています。
GRUベースのモデルは、平均二乗誤差(MSE)を2×10-8に抑えながら、最先端のRNNアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-24T07:16:42Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - UAV Autonomous Localization using Macro-Features Matching with a CAD
Model [0.0]
本稿では,マクロな特徴の検出とマッチングに依存する,オフライン,ポータブル,リアルタイムな室内UAVローカライゼーション手法を提案する。
この研究の主な貢献は、UAVキャプチャー画像からマクロ特徴記述ベクトルをリアルタイムに作成することであり、同時にコンピュータ支援設計(CAD)モデルからオフラインの既存ベクトルと一致する。
提案システムの有効性と精度をシミュレーションおよび試作実験により評価した。
論文 参考訳(メタデータ) (2020-01-30T23:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。