論文の概要: DeepEdgeBench: Benchmarking Deep Neural Networks on Edge Devices
- arxiv url: http://arxiv.org/abs/2108.09457v1
- Date: Sat, 21 Aug 2021 08:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 08:44:45.273146
- Title: DeepEdgeBench: Benchmarking Deep Neural Networks on Edge Devices
- Title(参考訳): deepedgebench: エッジデバイス上のディープニューラルネットワークのベンチマーク
- Authors: Stephan Patrick Baller, Anshul Jindal, Mohak Chadha, Michael Gerndt
- Abstract要約: Inference time and power consumption of the four Systems on a Chip (SoCs): Asus Tinker Edge R, Raspberry Pi 4, Google Coral Dev Board, Nvidia Jetson Nano, and one microcontroller, Arduino Nano 33 BLE。
推論時間の少なさ、すなわちMobileNetV2の29.3%以下では、Jetson Nanoは他のデバイスよりも高速に動作している。
- 参考スコア(独自算出の注目度): 0.6021787236982659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: EdgeAI (Edge computing based Artificial Intelligence) has been most actively
researched for the last few years to handle variety of massively distributed AI
applications to meet up the strict latency requirements. Meanwhile, many
companies have released edge devices with smaller form factors (low power
consumption and limited resources) like the popular Raspberry Pi and Nvidia's
Jetson Nano for acting as compute nodes at the edge computing environments.
Although the edge devices are limited in terms of computing power and hardware
resources, they are powered by accelerators to enhance their performance
behavior. Therefore, it is interesting to see how AI-based Deep Neural Networks
perform on such devices with limited resources.
In this work, we present and compare the performance in terms of inference
time and power consumption of the four Systems on a Chip (SoCs): Asus Tinker
Edge R, Raspberry Pi 4, Google Coral Dev Board, Nvidia Jetson Nano, and one
microcontroller: Arduino Nano 33 BLE, on different deep learning models and
frameworks. We also provide a method for measuring power consumption, inference
time and accuracy for the devices, which can be easily extended to other
devices. Our results showcase that, for Tensorflow based quantized model, the
Google Coral Dev Board delivers the best performance, both for inference time
and power consumption. For a low fraction of inference computation time, i.e.
less than 29.3% of the time for MobileNetV2, the Jetson Nano performs faster
than the other devices.
- Abstract(参考訳): EdgeAI(Edgeコンピューティングベースの人工知能)は、厳しいレイテンシ要件を満たすために、多種多様な分散AIアプリケーションを扱うために、ここ数年、最も活発に研究されている。
一方、多くの企業は、エッジコンピューティング環境で計算ノードとして機能するために、人気のRaspberry PiやNvidiaのJetson Nanoのような、フォームファクタ(消費電力とリソースの制限)の少ないエッジデバイスをリリースしている。
エッジデバイスはコンピューティングのパワーとハードウェアのリソースで制限されているが、パフォーマンスを向上させるためにアクセラレーターによって駆動される。
したがって、AIベースのDeep Neural Networksが限られたリソースを持つデバイス上でどのように機能するかは興味深い。
本研究では,Asus Tinker Edge R, Raspberry Pi 4, Google Coral Dev Board, Nvidia Jetson Nano, そして1つのマイクロコントローラであるArduino Nano 33 BLEを,異なるディープラーニングモデルとフレームワーク上で,チップ上での4つのシステム(SoC)の推論時間と消費電力で比較した。
また,装置の消費電力,推定時間,精度を計測し,他の機器に容易に拡張できる方法を提案する。
我々の結果は、Tensorflowベースの量子化モデルでは、Google Coral Dev Boardが推論時間と消費電力の両方で最高のパフォーマンスを提供します。
計算時間の少ない部分、すなわち、計算時間
MobileNetV2の29.3%以下では、Jetson Nanoは他のデバイスよりも高速に動作している。
関連論文リスト
- Benchmarking Deep Learning Models for Object Detection on Edge Computing Devices [0.0]
YOLOv8 (Nano, Small, Medium), EfficientDet Lite (Lite0, Lite1, Lite2), SSD (SSD MobileNet V1, SSDLite MobileDet) など,最先端のオブジェクト検出モデルの評価を行った。
これらのモデルをRaspberry Pi 3、4、5、TPUアクセラレーター、Jetson Orin Nanoといった一般的なエッジデバイスにデプロイし、エネルギー消費、推論時間、平均精度(mAP)といった重要なパフォーマンス指標を収集しました。
この結果から,SSD MobileNet V1などの低mAPモデルの方がエネルギー効率が高く,高速であることが示唆された。
論文 参考訳(メタデータ) (2024-09-25T10:56:49Z) - Realtime Facial Expression Recognition: Neuromorphic Hardware vs. Edge AI Accelerators [0.5492530316344587]
本稿では,社会ロボティクスなどの実世界の様々な応用における重要な要素として,リアルタイム表情認識(FER)システムに焦点をあてる。
フェース機械学習(ML)モデルをエッジに展開するためのハードウェアオプションとして,ニューロモルフィックハードウェアとエッジAIアクセラレータの2つについて検討する。
論文 参考訳(メタデータ) (2024-01-30T16:12:20Z) - Benchmarking Jetson Edge Devices with an End-to-end Video-based Anomaly
Detection System [0.0]
監視ビデオから入力されるエンドツーエンドのビデオベース犯罪シーン異常検知システムを実装した。
システムは複数のJetsonエッジデバイス(Nano、AGX Xavier、Orin Nano)で運用されている。
私たちは,さまざまなJetson Edgeデバイスに,AIベースのシステムデプロイメントをDockerテクノロジで実施した経験を提供します。
論文 参考訳(メタデータ) (2023-07-28T17:16:57Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - NanoFlowNet: Real-time Dense Optical Flow on a Nano Quadcopter [11.715961583058226]
ナノクアッドコプターは小さくてアジャイルで安価なプラットフォームで、狭い、散らかった環境でのデプロイメントに適している。
近年の機械学習開発は、低レイテンシでの高性能な認識を約束している。
専用エッジコンピューティングハードウェアは、これらの制限されたデバイスの処理能力を増強する可能性がある。
エッジコンピューティングハードウェア上でのリアルタイムな高密度光フロー推定のための軽量畳み込みニューラルネットワークであるNanoFlowNetを提案する。
論文 参考訳(メタデータ) (2022-09-14T20:35:51Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - Efficient Neural Network Deployment for Microcontroller [0.0]
本稿では,マイクロコントローラのための畳み込みニューラルネットワークの展開を探索し,一般化する。
メモリの節約と性能は、ARM Cortex-M CPU用に開発されたCMSIS-NNフレームワークと比較される。
最終的な目的は、トレーニングされたネットワーク重みを持つPyTorchモデルを消費するツールを開発することであり、低メモリ(キロバイトレベル)と限られた計算能力を持つマイクロコントローラのためにC/C++で最適化された推論エンジンとなる。
論文 参考訳(メタデータ) (2020-07-02T19:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。