論文の概要: Visual Heading Prediction for Autonomous Aerial Vehicles
- arxiv url: http://arxiv.org/abs/2512.09898v1
- Date: Wed, 10 Dec 2025 18:27:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.635965
- Title: Visual Heading Prediction for Autonomous Aerial Vehicles
- Title(参考訳): 自律型航空車両の視覚的頭部予測
- Authors: Reza Ahmari, Ahmad Mohammadi, Vahid Hemmati, Mohammed Mynuddin, Parham Kebria, Mahmoud Nabil Mahmoud, Xiaohong Yuan, Abdollah Homaifar,
- Abstract要約: 本稿では,リアルタイムUAV-UGV統合のためのビジョンベース,データ駆動型フレームワークを提案する。
YOLOv5モデルを使用してUGVを検出し、バウンディングボックスの特徴を抽出し、軽量な人工知能ニューラルネットワーク(ANN)によってUAVの要求方向角を推定する。
訓練されたANNは平均絶対誤差0.1506、根平均二乗誤差0.1957を達成し、正確な方向角予測を行う。
- 参考スコア(独自算出の注目度): 0.9083675407657857
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of Unmanned Aerial Vehicles (UAVs) and Unmanned Ground Vehicles (UGVs) is increasingly central to the development of intelligent autonomous systems for applications such as search and rescue, environmental monitoring, and logistics. However, precise coordination between these platforms in real-time scenarios presents major challenges, particularly when external localization infrastructure such as GPS or GNSS is unavailable or degraded [1]. This paper proposes a vision-based, data-driven framework for real-time UAV-UGV integration, with a focus on robust UGV detection and heading angle prediction for navigation and coordination. The system employs a fine-tuned YOLOv5 model to detect UGVs and extract bounding box features, which are then used by a lightweight artificial neural network (ANN) to estimate the UAV's required heading angle. A VICON motion capture system was used to generate ground-truth data during training, resulting in a dataset of over 13,000 annotated images collected in a controlled lab environment. The trained ANN achieves a mean absolute error of 0.1506° and a root mean squared error of 0.1957°, offering accurate heading angle predictions using only monocular camera inputs. Experimental evaluations achieve 95% accuracy in UGV detection. This work contributes a vision-based, infrastructure- independent solution that demonstrates strong potential for deployment in GPS/GNSS-denied environments, supporting reliable multi-agent coordination under realistic dynamic conditions. A demonstration video showcasing the system's real-time performance, including UGV detection, heading angle prediction, and UAV alignment under dynamic conditions, is available at: https://github.com/Kooroshraf/UAV-UGV-Integration
- Abstract(参考訳): 無人航空機(UAV)と無人地上車両(UGV)の統合は、探索や救助、環境モニタリング、物流といった応用のためのインテリジェントな自律システムの開発の中心となっている。
しかし、リアルタイムシナリオにおけるこれらのプラットフォーム間の正確な調整は、特にGPSやGNSSのような外部ローカライゼーションインフラストラクチャが利用できない、あるいは劣化している場合に、大きな課題となる。
本稿では、航法と調整のためのロバストなUGV検出と方向角予測に焦点をあてた、リアルタイムUAV-UGV統合のための視覚ベースのデータ駆動フレームワークを提案する。
このシステムは細調整されたYOLOv5モデルを使用してUGVを検出し、バウンディングボックスの特徴を抽出し、UAVの要求方向角を推定するために軽量な人工知能ニューラルネットワーク(ANN)によって使用される。
VICONモーションキャプチャシステムは、トレーニング中に地上データを生成するために使用され、13,000以上の注釈付き画像のデータセットが制御された実験室で収集された。
トレーニングされたANNは平均絶対誤差0.1506°、ルート平均2乗誤差0. 1957°を達成し、単眼カメラ入力のみを用いて正確な方向角予測を行う。
実験により、UGV検出において95%の精度が得られた。
この研究は、現実的な動的条件下での信頼性の高いマルチエージェント協調をサポートするため、GPS/GNSS対応環境への展開の可能性を示す、ビジョンベースでインフラに依存しないソリューションに寄与する。
UGV検出、方向角予測、動的条件下でのUAVアライメントを含む、システムのリアルタイムパフォーマンスを示すデモビデオがhttps://github.com/Kooroshraf/UAV-UGV-Integrationで公開されている。
関連論文リスト
- AerialMind: Towards Referring Multi-Object Tracking in UAV Scenarios [64.51320327698231]
UAVシナリオにおける最初の大規模RMOTベンチマークであるAerialMindを紹介する。
我々は、革新的な半自動協調型エージェントベースラベリングアシスタントフレームワークを開発した。
また,視覚言語表現学習を協調的に強化する新しい手法であるHawkEyeTrackを提案する。
論文 参考訳(メタデータ) (2025-11-26T04:44:27Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - More Clear, More Flexible, More Precise: A Comprehensive Oriented Object Detection benchmark for UAV [58.89234732689013]
CODroneは、現実の状況を正確に反映した、UAVのための包括的なオブジェクト指向オブジェクト検出データセットである。
また、下流のタスク要求に合わせて設計された新しいベンチマークとしても機能する。
我々は、CODroneを厳格に評価するために、22の古典的またはSOTA法に基づく一連の実験を行う。
論文 参考訳(メタデータ) (2025-04-28T17:56:02Z) - Griffin: Aerial-Ground Cooperative Detection and Tracking Dataset and Benchmark [15.405137983083875]
航空と地上の協力は、UAVの空中視界と地上の車両の局部的な観測を統合することで、有望な解決策を提供する。
本稿では,3つの重要な貢献を通じて,地上3次元協調認識のための包括的ソリューションを提案する。
論文 参考訳(メタデータ) (2025-03-10T07:00:07Z) - VECTOR: Velocity-Enhanced GRU Neural Network for Real-Time 3D UAV Trajectory Prediction [2.1825723033513165]
シーケンスベースニューラルネットワークにおけるGRU(Gated Recurrent Units)を用いた新しいトラジェクトリ予測手法を提案する。
我々は、合成と実世界のUAV軌跡データの両方を使用し、幅広い飛行パターン、速度、機敏性を捉えています。
GRUベースのモデルは、平均二乗誤差(MSE)を2×10-8に抑えながら、最先端のRNNアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-24T07:16:42Z) - Is That Rain? Understanding Effects on Visual Odometry Performance for Autonomous UAVs and Efficient DNN-based Rain Classification at the Edge [1.8936798735951972]
最先端のローカルトラッキングと軌道計画は通常、飛行制御アルゴリズムにカメラセンサーを入力して実行される。
最先端のビジュアル・オドメトリーシステムでは, 1.5mの最悪ケース平均追跡誤差が可能であることを示す。
我々は、モバイルおよび制約されたデプロイメントシナリオに適したディープニューラルネットワークモデルのセットをトレーニングし、これらの雨の条件を効率的に正確に分類できる範囲を判断する。
論文 参考訳(メタデータ) (2024-07-17T15:47:25Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - UAV Autonomous Localization using Macro-Features Matching with a CAD
Model [0.0]
本稿では,マクロな特徴の検出とマッチングに依存する,オフライン,ポータブル,リアルタイムな室内UAVローカライゼーション手法を提案する。
この研究の主な貢献は、UAVキャプチャー画像からマクロ特徴記述ベクトルをリアルタイムに作成することであり、同時にコンピュータ支援設計(CAD)モデルからオフラインの既存ベクトルと一致する。
提案システムの有効性と精度をシミュレーションおよび試作実験により評価した。
論文 参考訳(メタデータ) (2020-01-30T23:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。