論文の概要: ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models
- arxiv url: http://arxiv.org/abs/2105.03176v1
- Date: Fri, 7 May 2021 11:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:08:14.591254
- Title: ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models
- Title(参考訳): AnNETTE: 積み重ねモデルによる正確なニューラルネットワーク実行時間推定
- Authors: Matthias Wess, Matvey Ivanov, Anvesh Nookala, Christoph Unger,
Alexander Wendt, Axel Jantsch
- Abstract要約: 本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
- 参考スコア(独自算出の注目度): 56.21470608621633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With new accelerator hardware for DNN, the computing power for AI
applications has increased rapidly. However, as DNN algorithms become more
complex and optimized for specific applications, latency requirements remain
challenging, and it is critical to find the optimal points in the design space.
To decouple the architectural search from the target hardware, we propose a
time estimation framework that allows for modeling the inference latency of
DNNs on hardware accelerators based on mapping and layer-wise estimation
models. The proposed methodology extracts a set of models from micro-kernel and
multi-layer benchmarks and generates a stacked model for mapping and network
execution time estimation. We compare estimation accuracy and fidelity of the
generated mixed models, statistical models with the roofline model, and a
refined roofline model for evaluation. We test the mixed models on the ZCU102
SoC board with DNNDK and Intel Neural Compute Stick 2 on a set of 12
state-of-the-art neural networks. It shows an average estimation error of 3.47%
for the DNNDK and 7.44% for the NCS2, outperforming the statistical and
analytical layer models for almost all selected networks. For a randomly
selected subset of 34 networks of the NASBench dataset, the mixed model reaches
fidelity of 0.988 in Spearman's rank correlation coefficient metric. The code
of ANNETTE is publicly available at
https://github.com/embedded-machine-learning/annette.
- Abstract(参考訳): DNNの新しいアクセラレータハードウェアにより、AIアプリケーションの計算能力は急速に向上した。
しかし、DNNアルゴリズムがより複雑になり、特定のアプリケーションに最適化されるにつれて、レイテンシ要件は依然として困難であり、設計領域で最適な点を見つけることが重要である。
対象ハードウェアからアーキテクチャ検索を分離するために,ハードウェアアクセラレータ上でのdnnの推論遅延をマッピングと層別推定モデルに基づいてモデル化できる時間推定フレームワークを提案する。
提案手法は,マイクロカーネルおよび多層ベンチマークからモデル群を抽出し,マッピングおよびネットワーク実行時間推定のためのスタックモデルを生成する。
本研究では, 生成した混合モデルの推定精度と忠実度, 屋上モデルと統計モデル, 改良された屋根上モデルを比較して評価する。
我々は、DNNDKとIntel Neural Compute Stick 2でZCU102 SoCボード上で、12の最先端ニューラルネットワーク上で混合モデルを検証した。
平均推定誤差はDNNDKが3.47%、NCS2が7.44%であり、ほぼ全ての選択されたネットワークの統計層と分析層モデルを上回っている。
NASBenchデータセットの34ネットワークのランダムに選択されたサブセットに対して、混合モデルはスピアマンのランク相関係数の 0.988 の忠実度に達する。
ANNETTEのコードはhttps://github.com/embedded-machine-learning/annetteで公開されている。
関連論文リスト
- A model for multi-attack classification to improve intrusion detection
performance using deep learning approaches [0.0]
ここでの目的は、悪意のある攻撃を識別するための信頼性の高い侵入検知メカニズムを作ることである。
ディープラーニングベースのソリューションフレームワークは、3つのアプローチから成り立っている。
最初のアプローチは、adamax、SGD、adagrad、adam、RMSprop、nadam、adadeltaといった7つの機能を持つLong-Short Term Memory Recurrent Neural Network (LSTM-RNN)である。
モデルは特徴を自己学習し、攻撃クラスをマルチアタック分類として分類する。
論文 参考訳(メタデータ) (2023-10-25T05:38:44Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Model Architecture Adaption for Bayesian Neural Networks [9.978961706999833]
我々はBNNを精度と不確実性の両方に最適化する新しいネットワークアーキテクチャサーチ(NAS)を示す。
我々の実験では,探索されたモデルでは,最先端(ディープアンサンブル)と比較して,不確実性と精度が比較できる。
論文 参考訳(メタデータ) (2022-02-09T10:58:50Z) - JMSNAS: Joint Model Split and Neural Architecture Search for Learning
over Mobile Edge Networks [23.230079759174902]
モバイルエッジネットワーク上でのDNNモデルの自動生成とデプロイのために,ジョイントモデル分割とニューラルアーキテクチャサーチ(JMSNAS)フレームワークを提案する。
計算資源制約と通信資源制約の両方を考慮すると、計算グラフ探索問題を定式化する。
実験により,最先端の分割機械学習設計手法よりも提案手法が優れていることを確認した。
論文 参考訳(メタデータ) (2021-11-16T03:10:23Z) - Self-Learning for Received Signal Strength Map Reconstruction with
Neural Architecture Search [63.39818029362661]
ニューラルアーキテクチャサーチ(NAS)と受信信号強度(RSS)マップ再構築のための自己学習に基づくモデルを提案する。
このアプローチは、まず最適なNNアーキテクチャを見つけ、与えられた(RSS)マップの地上実測値に対して同時に推論モデルを訓練する。
実験結果から,この第2モデルの信号予測は,非学習に基づく最先端技術や,アーキテクチャ探索を伴わないNNモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-05-17T12:19:22Z) - Balancing Accuracy and Latency in Multipath Neural Networks [0.09668407688201358]
我々は,一発のニューラルネットワーク探索モデルを用いて,難解な数のニューラルネットワークの性能を暗黙的に評価する。
本手法は,待ち時間が異なるモデル間の相対性能を正確にモデル化し,異なるデータセットをまたいだ精度で未検出モデルの性能を予測できることを示す。
論文 参考訳(メタデータ) (2021-04-25T00:05:48Z) - NL-CNN: A Resources-Constrained Deep Learning Model based on Nonlinear
Convolution [0.0]
NL-CNNと略される新しい畳み込みニューラルネットワークモデルが提案され、非線型畳み込みは畳み込み+非線形性層のカスケードでエミュレートされる。
いくつかの広く知られているデータセットのパフォーマンス評価が提供され、いくつかの関連する特徴を示している。
論文 参考訳(メタデータ) (2021-01-30T13:38:42Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Contextual-Bandit Anomaly Detection for IoT Data in Distributed
Hierarchical Edge Computing [65.78881372074983]
IoTデバイスは複雑なディープニューラルネットワーク(DNN)モデルにはほとんど余裕がなく、異常検出タスクをクラウドにオフロードすることは長い遅延を引き起こす。
本稿では,分散階層エッジコンピューティング(HEC)システムを対象とした適応型異常検出手法のデモと構築を行う。
提案手法は,検出タスクをクラウドにオフロードした場合と比較して,精度を犠牲にすることなく検出遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-04-15T06:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。