論文の概要: Channel-Aware Distillation Transformer for Depth Estimation on Nano
Drones
- arxiv url: http://arxiv.org/abs/2303.10386v1
- Date: Sat, 18 Mar 2023 10:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 19:47:30.934615
- Title: Channel-Aware Distillation Transformer for Depth Estimation on Nano
Drones
- Title(参考訳): ナノドローンの深さ推定のためのチャネルアウェア蒸留変圧器
- Authors: Ning Zhang, Francesco Nex, George Vosselman, Norman Kerle
- Abstract要約: 本稿では,ナノドローンの障害物回避のための軽量CNN深度推定ネットワークを提案する。
知識蒸留(KD)にインスパイアされたCADiT (Channel-Aware Distillation Transformer) を提案する。
提案手法はKITTIデータセット上で検証され,超低消費電力マイクロプロセッサGAP8を用いたナノドローンCrzyflieで試験された。
- 参考スコア(独自算出の注目度): 9.967643080731683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous navigation of drones using computer vision has achieved promising
performance. Nano-sized drones based on edge computing platforms are
lightweight, flexible, and cheap, thus suitable for exploring narrow spaces.
However, due to their extremely limited computing power and storage, vision
algorithms designed for high-performance GPU platforms cannot be used for nano
drones. To address this issue this paper presents a lightweight CNN depth
estimation network deployed on nano drones for obstacle avoidance. Inspired by
Knowledge Distillation (KD), a Channel-Aware Distillation Transformer (CADiT)
is proposed to facilitate the small network to learn knowledge from a larger
network. The proposed method is validated on the KITTI dataset and tested on a
nano drone Crazyflie, with an ultra-low power microprocessor GAP8.
- Abstract(参考訳): コンピュータビジョンを用いたドローンの自律ナビゲーションは有望な性能を達成している。
エッジコンピューティングプラットフォームに基づくナノサイズのドローンは軽量で柔軟性があり、安価であり、狭い空間を探索するのに適している。
しかし、計算能力とストレージが非常に限られているため、高性能GPUプラットフォーム用に設計されたビジョンアルゴリズムはナノドローンには使用できない。
この問題に対処するために,ナノドローンに搭載された軽量CNN深度推定ネットワークを提案する。
知識蒸留 (KD) にインスパイアされ, チャネル認識蒸留変換 (CADiT) が提案され, より大規模なネットワークからの知識の学習を容易にする。
提案手法はKITTIデータセット上で検証され,超低消費電力マイクロプロセッサGAP8を用いたナノドローンCrzyflieで試験された。
関連論文リスト
- Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW [52.280742520586756]
ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T13:11:36Z) - Tiny-PULP-Dronets: Squeezing Neural Networks for Faster and Lighter Inference on Multi-Tasking Autonomous Nano-Drones [12.96119439129453]
この研究は、ナノドロンの自律ナビゲーションのためのステート・オブ・ザ・アート畳み込みニューラルネットワークであるPULP-Dronetから、モデルサイズを1桁以上圧縮する新しい手法であるTiny-PULP-Dronetへと移行した。
この大規模な削減は、高レベルのインテリジェンスを達成するための基本的な要件であるナノドロンの安価なマルチタスクへの道を開く。
論文 参考訳(メタデータ) (2024-07-02T16:24:57Z) - Optimized Deployment of Deep Neural Networks for Visual Pose Estimation
on Nano-drones [9.806742394395322]
小型無人航空機(UAV)は小型化が進み、屋内ナビゲーションや人体監視といった新しいタスクが可能になった。
本研究では,Deep Neural Networks (DNN) を用いた視覚的ポーズ推定タスクの自動最適化パイプラインを提案する。
その結果,アイソエラー時の予測遅延を最大3.22倍改善した。
論文 参考訳(メタデータ) (2024-02-23T11:35:57Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - NanoFlowNet: Real-time Dense Optical Flow on a Nano Quadcopter [11.715961583058226]
ナノクアッドコプターは小さくてアジャイルで安価なプラットフォームで、狭い、散らかった環境でのデプロイメントに適している。
近年の機械学習開発は、低レイテンシでの高性能な認識を約束している。
専用エッジコンピューティングハードウェアは、これらの制限されたデバイスの処理能力を増強する可能性がある。
エッジコンピューティングハードウェア上でのリアルタイムな高密度光フロー推定のための軽量畳み込みニューラルネットワークであるNanoFlowNetを提案する。
論文 参考訳(メタデータ) (2022-09-14T20:35:51Z) - DepthNet Nano: A Highly Compact Self-Normalizing Neural Network for
Monocular Depth Estimation [76.90627702089357]
DepthNet Nanoは、人間の機械の共同設計戦略を用いて設計された単眼深度推定のためのコンパクトなディープニューラルネットワークである。
提案したDepthNet Nanoは、最先端のネットワークで同等の性能を保ちながら、高い効率のネットワークアーキテクチャを持っている。
論文 参考訳(メタデータ) (2020-04-17T00:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。