論文の概要: Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW
- arxiv url: http://arxiv.org/abs/2408.03168v1
- Date: Tue, 6 Aug 2024 13:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 13:58:07.425657
- Title: Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW
- Title(参考訳): 飛行訓練:20mW以内のナノドローンを用いたデバイス上での自己教師型学習
- Authors: Elia Cereda, Alessandro Giusti, Daniele Palossi,
- Abstract要約: ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
- 参考スコア(独自算出の注目度): 52.280742520586756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Miniaturized cyber-physical systems (CPSes) powered by tiny machine learning (TinyML), such as nano-drones, are becoming an increasingly attractive technology. Their small form factor (i.e., ~10cm diameter) ensures vast applicability, ranging from the exploration of narrow disaster scenarios to safe human-robot interaction. Simple electronics make these CPSes inexpensive, but strongly limit the computational, memory, and sensing resources available on board. In real-world applications, these limitations are further exacerbated by domain shift. This fundamental machine learning problem implies that model perception performance drops when moving from the training domain to a different deployment one. To cope with and mitigate this general problem, we present a novel on-device fine-tuning approach that relies only on the limited ultra-low power resources available aboard nano-drones. Then, to overcome the lack of ground-truth training labels aboard our CPS, we also employ a self-supervised method based on ego-motion consistency. Albeit our work builds on top of a specific real-world vision-based human pose estimation task, it is widely applicable for many embedded TinyML use cases. Our 512-image on-device training procedure is fully deployed aboard an ultra-low power GWT GAP9 System-on-Chip and requires only 1MB of memory while consuming as low as 19mW or running in just 510ms (at 38mW). Finally, we demonstrate the benefits of our on-device learning approach by field-testing our closed-loop CPS, showing a reduction in horizontal position error of up to 26% vs. a non-fine-tuned state-of-the-art baseline. In the most challenging never-seen-before environment, our on-device learning procedure makes the difference between succeeding or failing the mission.
- Abstract(参考訳): ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
彼らの小さな形状因子(直径10cm)は、狭い災害シナリオの探索から安全な人間とロボットの相互作用まで幅広い適用性を保証する。
単純な電子回路はこれらのCPSを安価にするが、計算、メモリ、センシング資源を著しく制限する。
現実世界のアプリケーションでは、これらの制限はドメインシフトによってさらに悪化する。
この基本的な機械学習問題は、トレーニングドメインから別のデプロイメントドメインに移行すると、モデル知覚のパフォーマンスが低下することを意味する。
この一般的な問題に対処し、緩和するために、ナノドロンの限られた超低消費電力資源にのみ依存する、デバイス上での微調整手法を提案する。
そこで我々は, 自我運動の整合性に基づく自己教師型手法も導入し, 地上訓練ラベルの欠如を克服した。
私たちの仕事は、特定の現実世界の視覚に基づく人間のポーズ推定タスクの上に構築されていますが、多くのTinyMLユースケースに広く適用できます。
超低消費電力のGWT GAP9 System-on-Chipで、メモリは1MBしか必要ありません。
最後に、閉ループCPSをフィールドテストすることで、デバイス上での学習アプローチの利点を実証し、水平位置誤差を最大26%削減することを示した。
これまでにない、最も困難な環境では、デバイス上での学習手順は、ミッションを成功させるか失敗するかを区別します。
関連論文リスト
- Tiny-PULP-Dronets: Squeezing Neural Networks for Faster and Lighter Inference on Multi-Tasking Autonomous Nano-Drones [12.96119439129453]
この研究は、ナノドロンの自律ナビゲーションのためのステート・オブ・ザ・アート畳み込みニューラルネットワークであるPULP-Dronetから、モデルサイズを1桁以上圧縮する新しい手法であるTiny-PULP-Dronetへと移行した。
この大規模な削減は、高レベルのインテリジェンスを達成するための基本的な要件であるナノドロンの安価なマルチタスクへの道を開く。
論文 参考訳(メタデータ) (2024-07-02T16:24:57Z) - On-device Self-supervised Learning of Visual Perception Tasks aboard
Hardware-limited Nano-quadrotors [53.59319391812798]
SI50グラム以下のナノドロンは、学術と産業の両方で勢いを増している。
彼らの最も魅力的なアプリケーションは、知覚のためのディープラーニングモデルに依存している。
未知の環境にデプロイする場合、これらのモデルはドメインシフトによってパフォーマンスが低下することが多い。
本研究では,ナノドローンを用いたデバイス上での学習を初めて提案する。
論文 参考訳(メタデータ) (2024-03-06T22:04:14Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - Adaptive Deep Learning for Efficient Visual Pose Estimation aboard
Ultra-low-power Nano-drones [5.382126081742012]
視覚に基づく人間のポーズ推定タスクを効率的に実行するための適応的深層学習に基づく新しいメカニズムを提案する。
実世界のデータセットと実際のナノドロンのハードウェアでは,平均絶対誤差(MAE)を維持しながら28%のレイテンシ低減を実現し,アイソレイテンシでは3%のMAE削減,絶対ピーク性能,すなわちSoAモデルよりも6%向上した。
論文 参考訳(メタデータ) (2024-01-26T23:04:26Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - Robustifying the Deployment of tinyML Models for Autonomous
mini-vehicles [61.27933385742613]
本稿では,ループ内環境を含む自動運転ミニ車両を対象とした閉ループ学習フローを提案する。
我々は、小型CNNのファミリーを利用してミニ車両を制御し、コンピュータビジョンアルゴリズム、すなわち専門家を模倣してターゲット環境で学習する。
CNNのファミリを実行する場合、我々のソリューションはSTM32L4とk64f(Cortex-M4)の他の実装よりも優れており、レイテンシを13倍以上削減し、エネルギー消費を92%削減する。
論文 参考訳(メタデータ) (2020-07-01T07:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。