論文の概要: Deep Learning on Home Drone: Searching for the Optimal Architecture
- arxiv url: http://arxiv.org/abs/2209.11064v1
- Date: Wed, 21 Sep 2022 11:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:06:30.417793
- Title: Deep Learning on Home Drone: Searching for the Optimal Architecture
- Title(参考訳): ホームドローンの深層学習 : 最適なアーキテクチャを求めて
- Authors: Alaa Maalouf and Yotam Gurfinkel and Barak Diker and Oren Gal and
Daniela Rus and Dan Feldman
- Abstract要約: そこで我々は,Raspberry Pi Zero v2のような弱いマイクロコンピュータ上で,学習によってリアルタイムなセマンティックセマンティックセマンティクスを実行するシステムを提案する。
特にRaspberry Piの重さは16ドル(約1万2000円)以下で、クレジットカードの半分程度なので、市販のDJI Telloのおもちゃに簡単に取り付けることができます。
その結果、自律ドローンは、オンボードのモノクロRGBカメラのビデオストリームからオブジェクトをリアルタイムで検出し、分類することができる。
- 参考スコア(独自算出の注目度): 54.535788447839884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We suggest the first system that runs real-time semantic segmentation via
deep learning on a weak micro-computer such as the Raspberry Pi Zero v2 (whose
price was \$15) attached to a toy-drone. In particular, since the Raspberry Pi
weighs less than $16$ grams, and its size is half of a credit card, we could
easily attach it to the common commercial DJI Tello toy-drone (<\$100, <90
grams, 98 $\times$ 92.5 $\times$ 41 mm). The result is an autonomous drone (no
laptop nor human in the loop) that can detect and classify objects in real-time
from a video stream of an on-board monocular RGB camera (no GPS or LIDAR
sensors). The companion videos demonstrate how this Tello drone scans the lab
for people (e.g. for the use of firefighters or security forces) and for an
empty parking slot outside the lab.
Existing deep learning solutions are either much too slow for real-time
computation on such IoT devices, or provide results of impractical quality. Our
main challenge was to design a system that takes the best of all worlds among
numerous combinations of networks, deep learning platforms/frameworks,
compression techniques, and compression ratios. To this end, we provide an
efficient searching algorithm that aims to find the optimal combination which
results in the best tradeoff between the network running time and its
accuracy/performance.
- Abstract(参考訳): 我々は,Raspberry Pi Zero v2 (価格は15ドル) のような弱いマイクロコンピュータ上で,ディープラーニングによるリアルタイムセマンティックセマンティックセマンティクスを実行する最初のシステムを提案する。
特に、raspberry piの重さは16ドル未満で、そのサイズはクレジットカードの半分なので、一般的な市販のdji tello toy-drone (<$100, <90g, 98 $\times$ 92.5$\times$ 41 mm)に簡単に取り付けることができる。
その結果、自律ドローン(ラップトップもループの人間もいない)が、オンボードの単眼のRGBカメラ(GPSやLIDARセンサーなし)のビデオストリームからオブジェクトをリアルタイムで検出し、分類することができる。
このビデオでは、Telloドローンが実験室(消防士や治安部隊の使用など)や、実験室の外の空の駐車場をスキャンする方法が示されている。
既存のディープラーニングソリューションは、そのようなIoTデバイス上でリアルタイム計算を行うにはあまりにも遅すぎるか、あるいは非現実的な品質の結果を提供する。
私たちの主な課題は、ネットワーク、ディープラーニングプラットフォーム/フレームワーク、圧縮技術、圧縮比の多くの組み合わせの中で、すべての世界のベストを尽くすシステムを設計することでした。
そこで本研究では,ネットワーク実行時間と精度・性能の最適なトレードオフをもたらす最適な組み合わせを見つけることを目的とした効率的な探索アルゴリズムを提案する。
関連論文リスト
- High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - Channel-Aware Distillation Transformer for Depth Estimation on Nano
Drones [9.967643080731683]
本稿では,ナノドローンの障害物回避のための軽量CNN深度推定ネットワークを提案する。
知識蒸留(KD)にインスパイアされたCADiT (Channel-Aware Distillation Transformer) を提案する。
提案手法はKITTIデータセット上で検証され,超低消費電力マイクロプロセッサGAP8を用いたナノドローンCrzyflieで試験された。
論文 参考訳(メタデータ) (2023-03-18T10:45:34Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Newton-PnP: Real-time Visual Navigation for Autonomous Toy-Drones [15.075691719756877]
パースペクティブ・n・ポイント問題は、校正された単眼カメラと既知の3Dモデルとの相対的なポーズを推定することを目的としている。
リアルタイムに弱いIoT上で動作するアルゴリズムを提案するが、実行時間と正確性の両方を保証できる。
私たちの主な動機は、人気のDJIのTello Droneを、外部の人間/ラップトップ/センサーを使わずに、屋内環境をナビゲートする自律ドローンに変えることです。
論文 参考訳(メタデータ) (2022-03-05T09:00:50Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。