論文の概要: MicroNAS: Zero-Shot Neural Architecture Search for MCUs
- arxiv url: http://arxiv.org/abs/2401.08996v1
- Date: Wed, 17 Jan 2024 06:17:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:49:58.382981
- Title: MicroNAS: Zero-Shot Neural Architecture Search for MCUs
- Title(参考訳): MicroNAS: MCUのゼロショットニューラルネットワーク検索
- Authors: Ye Qiao, Haocheng Xu, Yifan Zhang, Sitao Huang
- Abstract要約: ニューラルネットワーク探索(NAS)は、新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを効果的に発見する。
エッジコンピューティングにおけるマイクロコントローラユニット(MCU)のためのハードウェア対応ゼロショットNASフレームワークであるMicroNASを提案する。
以前の研究と比較すると、MicroNASは探索効率を最大1104倍改善し、3.23倍高速なMCU推論モデルを発見した。
- 参考スコア(独自算出の注目度): 5.813274149871141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) effectively discovers new Convolutional
Neural Network (CNN) architectures, particularly for accuracy optimization.
However, prior approaches often require resource-intensive training on super
networks or extensive architecture evaluations, limiting practical
applications. To address these challenges, we propose MicroNAS, a
hardware-aware zero-shot NAS framework designed for microcontroller units
(MCUs) in edge computing. MicroNAS considers target hardware optimality during
the search, utilizing specialized performance indicators to identify optimal
neural architectures without high computational costs. Compared to previous
works, MicroNAS achieves up to 1104x improvement in search efficiency and
discovers models with over 3.23x faster MCU inference while maintaining similar
accuracy
- Abstract(参考訳): ニューラルネットワーク探索(NAS)は、特に精度最適化のために、新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを効果的に発見する。
しかし、以前のアプローチではスーパーネットワークのリソース集約的なトレーニングや、実用的な応用を制限した広範なアーキテクチャ評価が必要となることが多い。
これらの課題に対処するために,エッジコンピューティングにおけるマイクロコントローラユニット(MCU)用に設計されたハードウェア対応ゼロショットNASフレームワークであるMicroNASを提案する。
micronasは探索中にターゲットのハードウェアの最適性を考慮し、高い計算コストなしで最適なニューラルネットワークを識別するために特別な性能指標を利用する。
以前の研究と比較すると、MicroNASは探索効率を最大1104倍改善し、3.23倍高速なMCU推論モデルを発見しながら、類似の精度を維持している。
関連論文リスト
- MONAS: Efficient Zero-Shot Neural Architecture Search for MCUs [5.321424657585365]
MONASは、エッジコンピューティングのマイクロコントローラ(MCU)用に特別に設計された、ゼロショットNASフレームワークである。
MONASは、MCUをターゲットとした以前の作業よりも1104倍の検索効率向上を実現している。
MONASは、より一般的なNASアプローチと同じような精度を維持しながら、MCUの3.23倍高速な推測でCNNモデルを発見することができる。
論文 参考訳(メタデータ) (2024-08-26T10:24:45Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - MicroNAS: Memory and Latency Constrained Hardware-Aware Neural
Architecture Search for Time Series Classification on Microcontrollers [3.0723404270319685]
我々は、資源制約型マイクロコントローラ(MCU)における時系列分類問題を解決するために、差別化可能なニューラルネットワーク探索(DNAS)の概念を適用した。
ドメイン固有のHW-NASシステムであるMicroNASを導入し、DNAS、ルックアップテーブル、動的畳み込み、MCUの時系列分類に特化して設計された新しい検索空間を提案する。
異なるMCUと標準ベンチマークデータセットの研究により、MicroNASは、最先端のデスクトップモデルに近いパフォーマンス(F1スコア)を達成するMCUに適したアーキテクチャを見つけることを示した。
論文 参考訳(メタデータ) (2023-10-27T06:55:15Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - $\mu$NAS: Constrained Neural Architecture Search for Microcontrollers [15.517404770022633]
IoTデバイスは、非常にリソースの少ないマイクロコントローラユニット(MCU)によって駆動される。
ニューラルアーキテクチャサーチ(NAS)システム($mu$NAS)を構築し、このような小型のパワーを持つMCUレベルのネットワークの設計を自動化する。
NASは、トップ1の分類精度を最大4.8%向上させるか、(b)メモリフットプリントを4-13x削減するか、(c)乗算累積演算数を少なくとも2倍削減することができる。
論文 参考訳(メタデータ) (2020-10-27T12:42:53Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - MCUNet: Tiny Deep Learning on IoT Devices [62.752899523628066]
効率的なニューラルネットワーク(TinyNAS)と軽量推論エンジン(TinyEngine)を共同で設計するフレームワークを提案する。
TinyNASは、まず検索空間を最適化してリソース制約に適合させ、次に最適化された検索空間におけるネットワークアーキテクチャを専門化する、2段階のニューラルネットワーク検索アプローチを採用している。
TinyEngineは、階層的に最適化するのではなく、全体的なネットワークトポロジに従ってメモリスケジューリングを適応し、メモリ使用量を4.8倍削減する。
論文 参考訳(メタデータ) (2020-07-20T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。