論文の概要: Self-Supervised Monocular Visual Drone Model Identification through Improved Occlusion Handling
- arxiv url: http://arxiv.org/abs/2504.21695v1
- Date: Wed, 30 Apr 2025 14:38:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 18:12:38.503228
- Title: Self-Supervised Monocular Visual Drone Model Identification through Improved Occlusion Handling
- Title(参考訳): 改良されたオクルージョンハンドリングによる自己監督型単眼視覚ドローンモデル同定
- Authors: Stavrow A. Bahnam, Christophe De Wagter, Guido C. H. E. de Croon,
- Abstract要約: Ego-motion Estimation(エゴモーション推定)は、GPSで測定された環境で飛行するドローンにとって不可欠である。
本稿では,単眼ビデオとフライトコントローラのデータのみを用いて,ニューラルネットワークに基づくドローンモデルを訓練するための自己教師型学習手法を提案する。
従来のフィルタベースのVIOシステムに統合することで、ニューラルドローンモデルの価値を実証する。
- 参考スコア(独自算出の注目度): 17.368574409020475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ego-motion estimation is vital for drones when flying in GPS-denied environments. Vision-based methods struggle when flight speed increases and close-by objects lead to difficult visual conditions with considerable motion blur and large occlusions. To tackle this, vision is typically complemented by state estimation filters that combine a drone model with inertial measurements. However, these drone models are currently learned in a supervised manner with ground-truth data from external motion capture systems, limiting scalability to different environments and drones. In this work, we propose a self-supervised learning scheme to train a neural-network-based drone model using only onboard monocular video and flight controller data (IMU and motor feedback). We achieve this by first training a self-supervised relative pose estimation model, which then serves as a teacher for the drone model. To allow this to work at high speed close to obstacles, we propose an improved occlusion handling method for training self-supervised pose estimation models. Due to this method, the root mean squared error of resulting odometry estimates is reduced by an average of 15%. Moreover, the student neural drone model can be successfully obtained from the onboard data. It even becomes more accurate at higher speeds compared to its teacher, the self-supervised vision-based model. We demonstrate the value of the neural drone model by integrating it into a traditional filter-based VIO system (ROVIO), resulting in superior odometry accuracy on aggressive 3D racing trajectories near obstacles. Self-supervised learning of ego-motion estimation represents a significant step toward bridging the gap between flying in controlled, expensive lab environments and real-world drone applications. The fusion of vision and drone models will enable higher-speed flight and improve state estimation, on any drone in any environment.
- Abstract(参考訳): Ego-motion Estimation(エゴモーション推定)は、GPSで測定された環境で飛行するドローンにとって不可欠である。
飛行速度が増加し、物体が接近すると、視覚に基づく手法は、かなりの動きのぼやけと大きな閉塞を伴う難しい視覚状態に陥る。
これを解決するために、一般的には、ドローンモデルと慣性測定を組み合わせた状態推定フィルタが視覚を補完する。
しかし、これらのドローンモデルは、現在、外部のモーションキャプチャーシステムからの地平線データを教師付きで学習しており、異なる環境やドローンにスケーラビリティを制限している。
本研究では,車載単眼ビデオと飛行制御データ(IMUとモータフィードバック)のみを用いて,ニューラルネットワークに基づくドローンモデルを訓練するための自己指導型学習手法を提案する。
まず、自己監督型相対ポーズ推定モデルを訓練し、その後、ドローンモデルの教師として機能する。
障害物に近い高速動作を可能にするために,自己教師型ポーズ推定モデルの訓練のための改良されたオクルージョンハンドリング法を提案する。
この方法により, 推定値の平均2乗誤差は平均15%削減される。
さらに、搭載データから学生ニューラルドローンモデルを得ることができる。
教師による教師の視力に基づくモデルに比べれば、より高速で正確になる。
従来のフィルタベースのVIOシステム (ROVIO) に組み込むことで, 障害物近傍の攻撃的な3Dレース軌跡に対して, より優れたオドメトリー精度を実現することにより, ニューラルドローンモデルの価値を実証する。
エゴモーション推定の自己教師型学習は、制御された高価なラボ環境と現実のドローンアプリケーションの間のギャップを埋めるための重要なステップである。
ビジョンモデルとドローンモデルの融合により、あらゆる環境のあらゆるドローン上で高速飛行と状態推定を改善することができる。
関連論文リスト
- Drone Detection and Tracking with YOLO and a Rule-based Method [0.0]
公共空間におけるドローンの活動量の増加は、プライバシー保護と安全のために規制措置を必要とする。
検出タスクは通常、注釈付き画像データセットに基づいてトレーニングされたディープラーニングモデルによって自動化され、実行される。
本稿は、以前の研究に基づいて、すでに公開されたオープンソースデータセットを拡張します。
検出モデルは単一の画像入力に基づいており、単純なクロスコリレーションベースのトラッカーを用いて検出損失を低減し、ビデオのトラッキング性能を向上させる。
論文 参考訳(メタデータ) (2025-02-07T19:53:10Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Active Human Pose Estimation via an Autonomous UAV Agent [13.188563931419056]
本稿では,人の行動を捉えた映像から人間のポーズ推定を行うタスクに焦点を当てる。
これを解決するためには、ビューを明確にするために、カメラを新しいベタージュポイントに移す必要がある。
提案手法は、NeRFベースのDrone-Viewデータ生成フレームワーク、カメラビューエラー推定のためのOn-Drone Network、複合プランナーの3つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2024-07-01T21:20:52Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Learning a Single Near-hover Position Controller for Vastly Different
Quadcopters [56.37274861303324]
本稿では,クワッドコプターのための適応型ニアホバー位置制御器を提案する。
これは、非常に異なる質量、大きさ、運動定数を持つクワッドコプターに展開することができる。
また、実行中に未知の障害に迅速に適応する。
論文 参考訳(メタデータ) (2022-09-19T17:55:05Z) - Visual Attention Prediction Improves Performance of Autonomous Drone
Racing Agents [45.36060508554703]
人間はエンドツーエンドの自律飛行のために訓練されたニューラルネットワークよりも速くドローンをレースする。
本研究では、人間の視線行動や注意を模倣できるニューラルネットワークが、ニューラルネットワークの性能を向上させるかどうかを検討する。
論文 参考訳(メタデータ) (2022-01-07T18:07:51Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator [22.06785798356346]
本研究では,人間航法士が地上でどのように行うかを観察し,模擬することにより,ドローンに空中パトロールを学ばせることを提案する。
観察プロセスは、フレーム間の幾何一貫性を利用してデータの自動収集とアノテーションを可能にする。
アノテーション付きデータに基づいて、新たに設計されたニューラルネットワークをトレーニングし、適切な方向と翻訳を予測する。
論文 参考訳(メタデータ) (2020-08-30T15:20:40Z) - Learning to Fly via Deep Model-Based Reinforcement Learning [37.37420200406336]
モデルベース強化学習により, 四角子に対する推力制御系を学習する。
を1台のドローンで30分未満の経験で達成できることが示されています。
論文 参考訳(メタデータ) (2020-03-19T15:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。