論文の概要: High-throughput Visual Nano-drone to Nano-drone Relative Localization
using Onboard Fully Convolutional Networks
- arxiv url: http://arxiv.org/abs/2402.13756v1
- Date: Wed, 21 Feb 2024 12:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:33:56.795424
- Title: High-throughput Visual Nano-drone to Nano-drone Relative Localization
using Onboard Fully Convolutional Networks
- Title(参考訳): 全畳み込みネットワークを用いた高スループットビジュアルナノドロンとナノドロン相対局在
- Authors: Luca Crupi, Alessandro Giusti, and Daniele Palossi
- Abstract要約: 相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
- 参考スコア(独自算出の注目度): 51.23613834703353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relative drone-to-drone localization is a fundamental building block for any
swarm operations. We address this task in the context of miniaturized
nano-drones, i.e., 10cm in diameter, which show an ever-growing interest due to
novel use cases enabled by their reduced form factor. The price for their
versatility comes with limited onboard resources, i.e., sensors, processing
units, and memory, which limits the complexity of the onboard algorithms. A
traditional solution to overcome these limitations is represented by
lightweight deep learning models directly deployed aboard nano-drones. This
work tackles the challenging relative pose estimation between nano-drones using
only a gray-scale low-resolution camera and an ultra-low-power System-on-Chip
(SoC) hosted onboard. We present a vertically integrated system based on a
novel vision-based fully convolutional neural network (FCNN), which runs at
39Hz within 101mW onboard a Crazyflie nano-drone extended with the GWT GAP8
SoC. We compare our FCNN against three State-of-the-Art (SoA) systems.
Considering the best-performing SoA approach, our model results in an R-squared
improvement from 32 to 47% on the horizontal image coordinate and from 18 to
55% on the vertical image coordinate, on a real-world dataset of 30k images.
Finally, our in-field tests show a reduction of the average tracking error of
37% compared to a previous SoA work and an endurance performance up to the
entire battery lifetime of 4 minutes.
- Abstract(参考訳): ドローンからドローンへの相対的なローカライゼーションは、スワーミング操作の基本的な構成要素である。
この課題は, ナノ粒子径10cmの小型化, 形状因子の低減によって実現された新規な使用事例により, ますます関心が高まり続ける。
汎用性の価格には、センサー、処理ユニット、メモリなどの限られたオンボードリソースが伴うため、オンボードアルゴリズムの複雑さが制限される。
これらの制限を克服する従来のソリューションは、ナノドロネスに直接デプロイされる軽量なディープラーニングモデルによって表現される。
この研究は、グレースケールの低解像度カメラと超低消費電力システムオンチップ(soc)を内蔵したナノドロンの相対的なポーズ推定に挑戦している。
本稿では,GWT GAP8 SoCで拡張されたクレイジーフリーナノドローン上で,101mW以内39Hzで動作可能な,新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
当社のfcnnを3つの最先端(soa)システムと比較します。
最良のsoaアプローチを考えると、このモデルは、水平画像座標では32から47%、垂直画像座標では18から55%、実世界のデータセットでは30k画像でr-二乗の改善をもたらす。
最後に、フィールド内テストでは、以前のsoa作業と比較して、平均追跡エラーが37%減少し、バッテリー寿命が4分まで耐久性能が低下しています。
関連論文リスト
- Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW [52.280742520586756]
ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T13:11:36Z) - Tiny-PULP-Dronets: Squeezing Neural Networks for Faster and Lighter Inference on Multi-Tasking Autonomous Nano-Drones [12.96119439129453]
この研究は、ナノドロンの自律ナビゲーションのためのステート・オブ・ザ・アート畳み込みニューラルネットワークであるPULP-Dronetから、モデルサイズを1桁以上圧縮する新しい手法であるTiny-PULP-Dronetへと移行した。
この大規模な削減は、高レベルのインテリジェンスを達成するための基本的な要件であるナノドロンの安価なマルチタスクへの道を開く。
論文 参考訳(メタデータ) (2024-07-02T16:24:57Z) - On-device Self-supervised Learning of Visual Perception Tasks aboard
Hardware-limited Nano-quadrotors [53.59319391812798]
SI50グラム以下のナノドロンは、学術と産業の両方で勢いを増している。
彼らの最も魅力的なアプリケーションは、知覚のためのディープラーニングモデルに依存している。
未知の環境にデプロイする場合、これらのモデルはドメインシフトによってパフォーマンスが低下することが多い。
本研究では,ナノドローンを用いたデバイス上での学習を初めて提案する。
論文 参考訳(メタデータ) (2024-03-06T22:04:14Z) - Adaptive Deep Learning for Efficient Visual Pose Estimation aboard
Ultra-low-power Nano-drones [5.382126081742012]
視覚に基づく人間のポーズ推定タスクを効率的に実行するための適応的深層学習に基づく新しいメカニズムを提案する。
実世界のデータセットと実際のナノドロンのハードウェアでは,平均絶対誤差(MAE)を維持しながら28%のレイテンシ低減を実現し,アイソレイテンシでは3%のMAE削減,絶対ピーク性能,すなわちSoAモデルよりも6%向上した。
論文 参考訳(メタデータ) (2024-01-26T23:04:26Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - Channel-Aware Distillation Transformer for Depth Estimation on Nano
Drones [9.967643080731683]
本稿では,ナノドローンの障害物回避のための軽量CNN深度推定ネットワークを提案する。
知識蒸留(KD)にインスパイアされたCADiT (Channel-Aware Distillation Transformer) を提案する。
提案手法はKITTIデータセット上で検証され,超低消費電力マイクロプロセッサGAP8を用いたナノドローンCrzyflieで試験された。
論文 参考訳(メタデータ) (2023-03-18T10:45:34Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。