論文の概要: Quantized Neural Networks for Microcontrollers: A Comprehensive Review of Methods, Platforms, and Applications
- arxiv url: http://arxiv.org/abs/2508.15008v3
- Date: Mon, 15 Sep 2025 10:32:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 15:23:16.346375
- Title: Quantized Neural Networks for Microcontrollers: A Comprehensive Review of Methods, Platforms, and Applications
- Title(参考訳): マイクロコントローラのための量子ニューラルネットワーク:方法・プラットフォーム・応用の総合的レビュー
- Authors: Hamza A. Abushahla, Dara Varam, Ariel J. N. Panopio, Mohamed I. AlHajri,
- Abstract要約: マイクロコントローラなどのリソース制約のあるデバイス上での量子ニューラルネットワーク(QNN)は、モデルパフォーマンス、計算複雑性、メモリ制約のバランスをとる上での課題を導入している。
TinyML(Tiny Machine Learning)は、機械学習アルゴリズム、ハードウェアアクセラレーション、ソフトウェア最適化といった進歩を統合して、組み込みシステム上でディープニューラルネットワークを効率的に実行することで、これらの問題に対処する。
- 参考スコア(独自算出の注目度): 0.5599792629509229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of Quantized Neural Networks (QNNs) on resource-constrained devices, such as microcontrollers, has introduced significant challenges in balancing model performance, computational complexity, and memory constraints. Tiny Machine Learning (TinyML) addresses these issues by integrating advancements across machine learning algorithms, hardware acceleration, and software optimization to efficiently run deep neural networks on embedded systems. This survey presents a hardware-centric introduction to quantization, systematically reviewing essential quantization techniques employed to accelerate deep learning models for embedded applications. In particular, further emphasis is placed on the critical trade-offs between model performance and hardware capabilities. The survey further evaluates existing software frameworks and hardware platforms designed specifically for supporting QNN execution on microcontrollers. Moreover, we provide an analysis of the current challenges and an outline of promising future directions in the rapidly evolving domain of QNN deployment.
- Abstract(参考訳): マイクロコントローラなどのリソース制約のあるデバイスへの量子ニューラルネットワーク(QNN)のデプロイは、モデルパフォーマンス、計算複雑性、メモリ制約のバランスをとる上で大きな課題をもたらしている。
TinyML(Tiny Machine Learning)は、機械学習アルゴリズム、ハードウェアアクセラレーション、ソフトウェア最適化といった進歩を統合して、組み込みシステム上でディープニューラルネットワークを効率的に実行することで、これらの問題に対処する。
本調査では,組み込みアプリケーションにおける深層学習モデルの高速化に使用される本質的な量子化技術について,ハードウェア中心の量子化導入について,体系的に検討する。
特に、モデルパフォーマンスとハードウェア機能の間の重要なトレードオフに、さらに重点を置いている。
この調査は、マイクロコントローラ上でのQNN実行をサポートするために特別に設計された既存のソフトウェアフレームワークとハードウェアプラットフォームをさらに評価する。
さらに,QNNの展開が急速に進展する領域において,現在進行中の課題を分析し,将来的な方向性について概説する。
関連論文リスト
- Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Quantization-aware Neural Architectural Search for Intrusion Detection [5.010685611319813]
本稿では、最先端NNの1000倍の規模を持つ量子化ニューラルネットワーク(NN)モデルを自動的に訓練し、進化させる設計手法を提案する。
FPGAにデプロイする際にこのネットワークが利用するLUTの数は2.3倍から8.5倍と小さく、性能は以前の作業に匹敵する。
論文 参考訳(メタデータ) (2023-11-07T18:35:29Z) - Towards Efficient In-memory Computing Hardware for Quantized Neural
Networks: State-of-the-art, Open Challenges and Perspectives [6.4480695157206895]
エッジ上の限られたエネルギーと計算資源は、フォン・ノイマンのアーキテクチャからインメモリコンピューティング(IMC)への移行を押し進める。
量子化は、メモリフットプリント、レイテンシ、エネルギー消費を削減できる最も効率的なネットワーク圧縮手法の1つである。
本稿では、IMCベースの量子ニューラルネットワーク(QNN)の総合的なレビューを行い、ソフトウェアベースの量子化アプローチとIMCハードウェアの実装を関連付ける。
論文 参考訳(メタデータ) (2023-07-08T09:10:35Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Resistive Neural Hardware Accelerators [0.46198289193451136]
ReRAMベースのインメモリコンピューティングは、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
ReRAMベースのインメモリコンピューティングへの移行は、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
本稿では,最先端のReRAMベースディープニューラルネットワーク(DNN)多コアアクセラレータについて概説する。
論文 参考訳(メタデータ) (2021-09-08T21:11:48Z) - Generative machine learning with tensor networks: benchmarks on
near-term quantum computers [0.0]
テンソルネットワーク(TN)の観点から,NISQデバイス上での量子支援機械学習(QAML)について検討する。
特に、古典的手法を用いてTNベースのQAMLモデルを設計、最適化するためのフレームワークをレイアウトし、量子ハードウェア上で動作させるためにこれらのモデルをコンパイルする。
本稿では,MPS QAMLモデルの性能を評価するための正確なベンチマーク問題と,標準MNIST手書き桁データセットへの適用について述べる。
論文 参考訳(メタデータ) (2020-10-07T20:33:34Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - HCM: Hardware-Aware Complexity Metric for Neural Network Architectures [6.556553154231475]
本稿では,ニューラルネットワークアーキテクチャのシステムデザイナを支援することを目的とした,ハードウェア対応の複雑性指標を提案する。
提案手法は,資源制限されたデバイス上でのニューラルネットワークモデルの設計代替案の評価にどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-04-19T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。