論文の概要: A Map-free Deep Learning-based Framework for Gate-to-Gate Monocular Visual Navigation aboard Miniaturized Aerial Vehicles
- arxiv url: http://arxiv.org/abs/2503.05251v1
- Date: Fri, 07 Mar 2025 09:07:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:21:17.427430
- Title: A Map-free Deep Learning-based Framework for Gate-to-Gate Monocular Visual Navigation aboard Miniaturized Aerial Vehicles
- Title(参考訳): 小型航空機を用いたゲートツーゲート単眼視覚ナビゲーションのためのマップフリー深層学習フレームワーク
- Authors: Lorenzo Scarciglia, Antonio Paolillo, Daniele Palossi,
- Abstract要約: パームサイズの自律型ナノドローン、すなわち重量50g未満は、最近ドローンレースのシナリオに参入し、障害物を回避し、ゲートを通ってできるだけ早く移動するよう義務付けられている。
この研究は、リアルタイムのディープラーニングゲート検出フロントエンドと、古典的でエレガントで効果的なビジュアルサーボ制御バックエンドを組み合わせた、地図のない視覚ベースの自律型ナノドローンを提示する。
現地での実験では、ナノドローンが4分で15個のゲートを通り抜けることに成功した。
- 参考スコア(独自算出の注目度): 6.894810724560054
- License:
- Abstract: Palm-sized autonomous nano-drones, i.e., sub-50g in weight, recently entered the drone racing scenario, where they are tasked to avoid obstacles and navigate as fast as possible through gates. However, in contrast with their bigger counterparts, i.e., kg-scale drones, nano-drones expose three orders of magnitude less onboard memory and compute power, demanding more efficient and lightweight vision-based pipelines to win the race. This work presents a map-free vision-based (using only a monocular camera) autonomous nano-drone that combines a real-time deep learning gate detection front-end with a classic yet elegant and effective visual servoing control back-end, only relying on onboard resources. Starting from two state-of-the-art tiny deep learning models, we adapt them for our specific task, and after a mixed simulator-real-world training, we integrate and deploy them aboard our nano-drone. Our best-performing pipeline costs of only 24M multiply-accumulate operations per frame, resulting in a closed-loop control performance of 30 Hz, while achieving a gate detection root mean square error of 1.4 pixels, on our ~20k real-world image dataset. In-field experiments highlight the capability of our nano-drone to successfully navigate through 15 gates in 4 min, never crashing and covering a total travel distance of ~100m, with a peak flight speed of 1.9 m/s. Finally, to stress the generalization capability of our system, we also test it in a never-seen-before environment, where it navigates through gates for more than 4 min.
- Abstract(参考訳): パームサイズの自律型ナノドローン、すなわち重量50g未満は、最近ドローンレースのシナリオに参入し、障害物を回避し、ゲートを通ってできるだけ早く移動するよう義務付けられている。
しかし、大型のドローン、すなわち kg スケールのドローンとは対照的に、ナノドローンはメモリと計算能力の3桁減らし、競争に勝つためにより効率的で軽量なビジョンベースのパイプラインを必要としている。
この研究は、リアルタイムのディープラーニングゲート検出フロントエンドと、古典的でエレガントで効果的なビジュアルサーボ制御バックエンドを組み合わせた、地図のないビジョンベース(単眼カメラのみを使用)の自律型ナノドローンを提示する。
2つの最先端の小さなディープラーニングモデルから始まり、特定のタスクにそれらを適応させ、シミュレーターと現実世界の混合トレーニングの後、ナノドローンにそれらを統合してデプロイします。
1フレームあたり24Mの乗算演算しか行わず,30Hzのクローズドループ制御性能を実現した上で,約20kの実画像データセット上で,ゲート検出根平均2乗誤差1.4ピクセルを実現した。
現地での実験では、我々のナノドローンが4分で15個のゲートを通り抜けることができ、最高速度は1.9m/sで、総走行距離は100m程度である。
最後に,本システムの一般化能力を強調するために,ゲートを4分以上走行する,見知らぬ環境でもテストする。
関連論文リスト
- Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW [52.280742520586756]
ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T13:11:36Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - AlphaPilot: Autonomous Drone Racing [47.205375478625776]
このシステムは、2019年のAlphaPilot Challengeという、初の無人ドローンレース世界選手権で成功している。
提案システムは,最大8m/sの速度に達するタイトなレースコースを通じて,ドローンを誘導することに成功した。
論文 参考訳(メタデータ) (2020-05-26T15:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。