論文の概要: MicroNAS: Memory and Latency Constrained Hardware-Aware Neural
Architecture Search for Time Series Classification on Microcontrollers
- arxiv url: http://arxiv.org/abs/2310.18384v1
- Date: Fri, 27 Oct 2023 06:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 19:01:12.177136
- Title: MicroNAS: Memory and Latency Constrained Hardware-Aware Neural
Architecture Search for Time Series Classification on Microcontrollers
- Title(参考訳): MicroNAS:マイクロコントローラ上での時系列分類のためのメモリと遅延制約付きハードウェア対応ニューラルネットワーク探索
- Authors: Tobias King, Yexu Zhou, Tobias R\"oddiger, Michael Beigl
- Abstract要約: MicroNASは、リソース制約されたマイクロコントローラ(MCU)上の時系列データを分類できるニューラルネットワークアーキテクチャを自動的に検索して生成するように設計されているシステムである。
MicroNASは、実行遅延とターゲットMCUのピークメモリ消費に関する、ユーザ定義の制約を考慮に入れている。
認識されたデータセットに対して高い分類精度を達成する。
- 参考スコア(独自算出の注目度): 3.0723404270319685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents MicroNAS, a system designed to automatically search and
generate neural network architectures capable of classifying time series data
on resource-constrained microcontrollers (MCUs) and generating standard tf-lite
ML models. MicroNAS takes into account user-defined constraints on execution
latency and peak memory consumption on a target MCU. This approach ensures that
the resulting neural network architectures are optimised for the specific
constraints and requirements of the MCU on which they are implemented. To
achieve this, MicroNAS uses a look-up table estimation approach for accurate
execution latency calculations, with a minimum error of only 1.02ms. This
accurate latency estimation on MCUs sets it apart from other hardware-aware
neural architecture search (HW-NAS) methods that use less accurate estimation
techniques. Finally, MicroNAS delivers performance close to that of
state-of-the-art models running on desktop computers, achieving high
classification accuracies on recognised datasets (93.93% on UCI-HAR and 96.33%
on SkodaR) while running on a Cortex-M4 MCU.
- Abstract(参考訳): 本稿では,mcu(resource-constrained microcontrollers)上で時系列データを分類し,標準のtf-lite mlモデルを生成するニューラルネットワークアーキテクチャの自動検索と生成を行うシステムであるmicronasを提案する。
MicroNASは、実行遅延とターゲットMCUのピークメモリ消費に関するユーザ定義の制約を考慮に入れている。
このアプローチは、ニューラルネットワークアーキテクチャが実装されるmcuの特定の制約と要件のために最適化されることを保証する。
これを実現するために、MicroNASは、最小誤差が1.02msで、正確な実行遅延計算にルックアップテーブル推定アプローチを使用する。
MCUにおけるこの正確な遅延推定は、より精度の低い推定手法を使用する他のハードウェア対応ニューラルアーキテクチャサーチ(HW-NAS)メソッドと区別する。
最後に、MicroNASは、Cortex-M4 MCU上で実行しながら、認識されたデータセット(UCI-HARでは93.93%、SkodaRでは96.33%)で高い分類精度を達成する。
関連論文リスト
- MONAS: Efficient Zero-Shot Neural Architecture Search for MCUs [5.321424657585365]
MONASは、エッジコンピューティングのマイクロコントローラ(MCU)用に特別に設計された、ゼロショットNASフレームワークである。
MONASは、MCUをターゲットとした以前の作業よりも1104倍の検索効率向上を実現している。
MONASは、より一般的なNASアプローチと同じような精度を維持しながら、MCUの3.23倍高速な推測でCNNモデルを発見することができる。
論文 参考訳(メタデータ) (2024-08-26T10:24:45Z) - MicroNAS: Zero-Shot Neural Architecture Search for MCUs [5.813274149871141]
ニューラルネットワーク探索(NAS)は、新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを効果的に発見する。
エッジコンピューティングにおけるマイクロコントローラユニット(MCU)のためのハードウェア対応ゼロショットNASフレームワークであるMicroNASを提案する。
以前の研究と比較すると、MicroNASは探索効率を最大1104倍改善し、3.23倍高速なMCU推論モデルを発見した。
論文 参考訳(メタデータ) (2024-01-17T06:17:42Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - Towards Less Constrained Macro-Neural Architecture Search [2.685668802278155]
ニューラルアーキテクチャサーチ(NAS)ネットワークは、様々なタスクで最先端のパフォーマンスを達成する。
ほとんどのNAS手法は、探索を制約する人間定義の仮定に大きく依存している。
我々は,LCMNASが最小のGPU計算でゼロから最先端アーキテクチャを生成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-10T17:53:03Z) - HyperSegNAS: Bridging One-Shot Neural Architecture Search with 3D
Medical Image Segmentation using HyperNet [51.60655410423093]
医用画像セグメンテーションのためのワンショットニューラルアーキテクチャサーチ(NAS)を実現するためにHyperSegNASを導入する。
従来のSOTA(State-of-the-art)セグメンテーションネットワークと比較して,HyperSegNASの方がパフォーマンスが高く,直感的なアーキテクチャが得られることを示す。
本手法は,MSD (Messical Decathlon) 課題の公開データセットを用いて評価し,SOTAの性能評価を行う。
論文 参考訳(メタデータ) (2021-12-20T16:21:09Z) - Neural Architecture Search of SPD Manifold Networks [79.45110063435617]
本研究では,Symmetric Positive Definite (SPD) 多様体ネットワークのニューラルアーキテクチャ探索(NAS)問題を提案する。
まず、効率的なSPDセル設計のために、幾何学的にリッチで多様なSPDニューラルアーキテクチャ探索空間を導入する。
我々は、SPDニューラルアーキテクチャ探索のための緩和された連続探索空間上で微分可能なNASアルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-10-27T18:08:57Z) - MicroNets: Neural Network Architectures for Deploying TinyML
Applications on Commodity Microcontrollers [18.662026553041937]
リソース制約付きマイクロコントローラ(MCU)による機械学習は、IoT(Internet of Things)のアプリケーション領域を大幅に拡大することを約束する
TinyMLは、ディープニューラルネットワーク推論が大きな計算とメモリの予算を必要とするため、深刻な技術的課題を提示している。
ニューラルネットワークサーチ(NAS)は、厳密なMCUメモリ、レイテンシ、エネルギー制約を満たす正確なMLモデルの設計を支援する。
論文 参考訳(メタデータ) (2020-10-21T19:39:39Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - LC-NAS: Latency Constrained Neural Architecture Search for Point Cloud
Networks [73.78551758828294]
LC-NASは、最小計算コストでポイントクラウド分類のための最先端アーキテクチャを見つけることができる。
検索したアーキテクチャが、適度に低い精度で、望ましいレイテンシを実現する方法を示します。
論文 参考訳(メタデータ) (2020-08-24T10:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。