論文の概要: Performance Prediction for Convolutional Neural Networks in Edge Devices
- arxiv url: http://arxiv.org/abs/2010.11297v1
- Date: Wed, 21 Oct 2020 20:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:15:13.757230
- Title: Performance Prediction for Convolutional Neural Networks in Edge Devices
- Title(参考訳): エッジデバイスにおける畳み込みニューラルネットワークの性能予測
- Authors: Halima Bouzidi, Hamza Ouarnoughi, Smail Niar and Abdessamad Ait El
Cadi
- Abstract要約: データソースに近いエッジデバイス上の畳み込みニューラルネットワーク(CNN)ベースのアプリケーションは、レイテンシとプライバシの課題を満たすことができる。
我々は,2つのエッジGPUプラットフォーム上でのCNNの実行時間予測に広く使用されている機械学習ベースの手法の5つの (5) を提示し,比較する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Running Convolutional Neural Network (CNN) based applications on edge devices
near the source of data can meet the latency and privacy challenges. However
due to their reduced computing resources and their energy constraints, these
edge devices can hardly satisfy CNN needs in processing and data storage. For
these platforms, choosing the CNN with the best trade-off between accuracy and
execution time while respecting Hardware constraints is crucial. In this paper,
we present and compare five (5) of the widely used Machine Learning based
methods for execution time prediction of CNNs on two (2) edge GPU platforms.
For these 5 methods, we also explore the time needed for their training and
tuning their corresponding hyperparameters. Finally, we compare times to run
the prediction models on different platforms. The utilization of these methods
will highly facilitate design space exploration by providing quickly the best
CNN on a target edge GPU. Experimental results show that eXtreme Gradient
Boosting (XGBoost) provides a less than 14.73% average prediction error even
for unexplored and unseen CNN models' architectures. Random Forest (RF) depicts
comparable accuracy but needs more effort and time to be trained. The other 3
approaches (OLS, MLP and SVR) are less accurate for CNN performances
estimation.
- Abstract(参考訳): convolutional neural network(cnn)ベースのアプリケーションをデータソースに近いエッジデバイスで実行すると、レイテンシとプライバシの課題に対処できる。
しかし、コンピューティングリソースの削減とエネルギー制約のため、これらのエッジデバイスは処理やデータストレージにおけるCNNのニーズをほとんど満たさない。
これらのプラットフォームでは、ハードウェア制約を尊重しながら、正確性と実行時間の最良のトレードオフでCNNを選択することが重要です。
本稿では,2つのエッジGPUプラットフォーム上でのCNNの実行時間予測に広く用いられている機械学習手法の5つの (5) を提示し,比較する。
これらの5つの手法について、トレーニングに必要な時間と、対応するハイパーパラメータのチューニングについても検討する。
最後に、異なるプラットフォーム上で予測モデルを実行する時間を比較する。
これらの手法を利用することで、ターゲットエッジGPU上での最高のCNNを迅速に提供し、設計空間の探索を容易にする。
実験の結果、eXtreme Gradient Boosting (XGBoost)は、探索されていないCNNモデルのアーキテクチャであっても平均予測誤差が14.73%未満であることが示された。
ランダムフォレスト(RF)の精度は同等だが、訓練にはより多くの労力と時間が必要である。
他の3つのアプローチ(OLS、MLP、SVR)は、CNNのパフォーマンス推定では正確ではない。
関連論文リスト
- OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - An Efficient Evolutionary Deep Learning Framework Based on Multi-source
Transfer Learning to Evolve Deep Convolutional Neural Networks [8.40112153818812]
畳み込みニューラルネットワーク(CNN)は、より複雑なトポロジを導入し、より深くより広いCNNへのキャパシティを拡大することで、長年にわたって、より優れたパフォーマンスを実現してきた。
計算コストは依然としてCNNを自動設計するボトルネックである。
本稿では, CNNを効率的に進化させるために, トランスファーラーニングにヒントを得て, 新たな進化的計算ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-07T20:22:58Z) - AutoDiCE: Fully Automated Distributed CNN Inference at the Edge [0.9883261192383613]
本稿では,CNNモデルのサブモデルへの自動分割のための新しいフレームワークであるAutoDiCEを提案する。
実験の結果、AutoDiCEは、エッジデバイス当たりのエネルギー消費とメモリ使用量を減らすことで、分散CNN推論を実現することができることがわかった。
論文 参考訳(メタデータ) (2022-07-20T15:08:52Z) - Benchmarking Test-Time Unsupervised Deep Neural Network Adaptation on
Edge Devices [19.335535517714703]
エッジへの展開後のディープニューラルネットワーク(DNN)の予測精度は、新しいデータの分布の変化によって、時間とともに低下する可能性がある。
バッチ正規化パラメータを再調整することにより、ノイズデータに対するモデルの予測精度を向上させるため、近年の予測時間非教師なしDNN適応技術が導入されている。
本論文は, 各種エッジデバイスの性能とエネルギーを定量化するために, この種の技術に関する総合的な研究を初めて行ったものである。
論文 参考訳(メタデータ) (2022-03-21T19:10:40Z) - Boggart: Accelerating Retrospective Video Analytics via Model-Agnostic
Ingest Processing [5.076419064097734]
Boggartは、モデルに依存しない方法で摂取時のスピードアップを提供する、振り返りビデオ分析システムである。
我々の根底にある洞察は、従来のコンピュータビジョン(CV)アルゴリズムは、幅広いCNNで多様なクエリを高速化するために使用できる計算を行うことができるということである。
クエリ時に、Boggart氏はいくつかの新しいテクニックを使用して、ターゲットの精度を満たすのに必要な最小のCNN結果のサンプルを収集している。
論文 参考訳(メタデータ) (2021-06-21T19:21:16Z) - Continual 3D Convolutional Neural Networks for Real-time Processing of
Videos [93.73198973454944]
連続3次元コンテンポラルニューラルネットワーク(Co3D CNN)について紹介する。
Co3D CNNはクリップ・バイ・クリップではなく、フレーム・バイ・フレームで動画を処理する。
本研究では,既存の映像認識モデルの重みを初期化したCo3D CNNを用いて,フレームワイズ計算における浮動小数点演算を10.0-12.4倍削減し,Kinetics-400の精度を2.3-3.8倍に向上したことを示す。
論文 参考訳(メタデータ) (2021-05-31T18:30:52Z) - MoViNets: Mobile Video Networks for Efficient Video Recognition [52.49314494202433]
3D畳み込みニューラルネットワーク(CNN)は、ビデオ認識では正確だが、大きな計算とメモリ予算を必要とする。
本稿では,3次元CNNのピークメモリ使用量を大幅に削減しつつ,計算効率を向上させる3段階の手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:06:38Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。