論文の概要: NanoFlowNet: Real-time Dense Optical Flow on a Nano Quadcopter
- arxiv url: http://arxiv.org/abs/2209.06918v1
- Date: Wed, 14 Sep 2022 20:35:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:23:33.723788
- Title: NanoFlowNet: Real-time Dense Optical Flow on a Nano Quadcopter
- Title(参考訳): NanoFlowNet:ナノクアッドコプター上のリアルタイム高密度光フロー
- Authors: Rik J. Bouwmeester, Federico Paredes-Vall\'es and Guido C. H. E. de
Croon
- Abstract要約: ナノクアッドコプターは小さくてアジャイルで安価なプラットフォームで、狭い、散らかった環境でのデプロイメントに適している。
近年の機械学習開発は、低レイテンシでの高性能な認識を約束している。
専用エッジコンピューティングハードウェアは、これらの制限されたデバイスの処理能力を増強する可能性がある。
エッジコンピューティングハードウェア上でのリアルタイムな高密度光フロー推定のための軽量畳み込みニューラルネットワークであるNanoFlowNetを提案する。
- 参考スコア(独自算出の注目度): 11.715961583058226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nano quadcopters are small, agile, and cheap platforms that are well suited
for deployment in narrow, cluttered environments. Due to their limited payload,
these vehicles are highly constrained in processing power, rendering
conventional vision-based methods for safe and autonomous navigation
incompatible. Recent machine learning developments promise high-performance
perception at low latency, while dedicated edge computing hardware has the
potential to augment the processing capabilities of these limited devices. In
this work, we present NanoFlowNet, a lightweight convolutional neural network
for real-time dense optical flow estimation on edge computing hardware. We draw
inspiration from recent advances in semantic segmentation for the design of
this network. Additionally, we guide the learning of optical flow using motion
boundary ground truth data, which improves performance with no impact on
latency. Validation results on the MPI-Sintel dataset show the high performance
of the proposed network given its constrained architecture. Additionally, we
successfully demonstrate the capabilities of NanoFlowNet by deploying it on the
ultra-low power GAP8 microprocessor and by applying it to vision-based obstacle
avoidance on board a Bitcraze Crazyflie, a 34 g nano quadcopter.
- Abstract(参考訳): nano quadcoptersは小さくてアジャイルで安価なプラットフォームで、狭く乱雑な環境でのデプロイメントに適している。
ペイロードが限られているため、これらの車両は処理能力に非常に制約があり、安全かつ自律的なナビゲーションのための従来の視覚ベースの方法が互換性がない。
最近の機械学習開発は低レイテンシでの高性能な認識を約束しているが、専用エッジコンピューティングハードウェアはこれらの制限されたデバイスの処理能力を増強する可能性がある。
本研究では,エッジコンピューティングハードウェア上でのリアルタイムな高密度光フロー推定のための軽量畳み込みニューラルネットワークであるNanoFlowNetを提案する。
このネットワークの設計のためのセマンティックセグメンテーションの最近の進歩から着想を得た。
さらに,動き境界接地真理データを用いた光流れの学習を指導し,レイテンシに影響を与えずに性能を向上させる。
MPI-Sintelデータセットの検証結果は、その制約されたアーキテクチャから提案したネットワークの性能を示す。
さらに,超低消費電力のGAP8マイクロプロセッサにNanoFlowNetを配置し,34gナノクアッドコプターであるBitcraze Crazyflieに搭載した視覚障害回避装置に適用することにより,NanoFlowNetの能力を実証した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Optimized Deployment of Deep Neural Networks for Visual Pose Estimation
on Nano-drones [9.806742394395322]
小型無人航空機(UAV)は小型化が進み、屋内ナビゲーションや人体監視といった新しいタスクが可能になった。
本研究では,Deep Neural Networks (DNN) を用いた視覚的ポーズ推定タスクの自動最適化パイプラインを提案する。
その結果,アイソエラー時の予測遅延を最大3.22倍改善した。
論文 参考訳(メタデータ) (2024-02-23T11:35:57Z) - Digital Modeling on Large Kernel Metamaterial Neural Network [7.248553563042369]
我々は,最先端(SOTA)MNNのディジタル容量を最大化する大規模カーネルメタマテリアルニューラルネットワーク(LMNN)を提案する。
提案されたLMNNでは、畳み込みフロントエンドのコストを製造された光学ハードウェアにオフロードすることができる。
論文 参考訳(メタデータ) (2023-07-21T19:07:02Z) - Efficient Feature Description for Small Body Relative Navigation using
Binary Convolutional Neural Networks [17.15829643665034]
本稿では,二項畳み込みニューラルネットワーク層を利用した局所的特徴記述アーキテクチャを提案する。
私たちは、レガシーで進行中のミッションから、小さなボディの実際のイメージでモデルをトレーニングし、テストします。
次世代宇宙船プロセッサのサロゲートにモデルを実装し,オンライン機能トラッキングの実現可能なランタイムを実証する。
論文 参考訳(メタデータ) (2023-04-11T05:09:46Z) - Channel-Aware Distillation Transformer for Depth Estimation on Nano
Drones [9.967643080731683]
本稿では,ナノドローンの障害物回避のための軽量CNN深度推定ネットワークを提案する。
知識蒸留(KD)にインスパイアされたCADiT (Channel-Aware Distillation Transformer) を提案する。
提案手法はKITTIデータセット上で検証され,超低消費電力マイクロプロセッサGAP8を用いたナノドローンCrzyflieで試験された。
論文 参考訳(メタデータ) (2023-03-18T10:45:34Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - EmotionNet Nano: An Efficient Deep Convolutional Neural Network Design
for Real-time Facial Expression Recognition [75.74756992992147]
本研究では,人間と機械の協調設計戦略によって構築された,効率的な深層畳み込みニューラルネットワークであるEmotionNet Nanoを提案する。
EmotionNet Nanoの2つの異なるバリエーションが提示され、それぞれがアーキテクチャと計算の複雑さと精度のトレードオフを持っている。
提案するEmotionNet Nanoネットワークは,実時間推定速度(例えば,15Wおよび30Wで$>25$ FPSと$>70$ FPS)と高エネルギー効率を実現した。
論文 参考訳(メタデータ) (2020-06-29T00:48:05Z) - DepthNet Nano: A Highly Compact Self-Normalizing Neural Network for
Monocular Depth Estimation [76.90627702089357]
DepthNet Nanoは、人間の機械の共同設計戦略を用いて設計された単眼深度推定のためのコンパクトなディープニューラルネットワークである。
提案したDepthNet Nanoは、最先端のネットワークで同等の性能を保ちながら、高い効率のネットワークアーキテクチャを持っている。
論文 参考訳(メタデータ) (2020-04-17T00:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。