論文の概要: Hardware Aware Training for Efficient Keyword Spotting on General
Purpose and Specialized Hardware
- arxiv url: http://arxiv.org/abs/2009.04465v3
- Date: Wed, 10 Mar 2021 03:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 11:40:48.160521
- Title: Hardware Aware Training for Efficient Keyword Spotting on General
Purpose and Specialized Hardware
- Title(参考訳): 汎用ハードウェアと専用ハードウェアを用いたキーワードスポッティングのためのハードウェアアウェアネストレーニング
- Authors: Peter Blouw, Gurshaant Malik, Benjamin Morcos, Aaron R. Voelker, and
Chris Eliasmith
- Abstract要約: キーワードスポッティング(KWS)は、携帯電話、ウェアラブル、自動車など、多くのモバイルおよびエッジアプリケーションにとって重要なユーザインターフェースを提供する。
我々はハードウェアアウェアネストレーニング(HAT)を用いて、最先端(SotA)の精度と低いパラメータ数を達成するLMU(Legendre Memory Unit)に基づく新しいKWSニューラルネットワークを構築する。
また、SotA電力効率8.79$Wを実現し、汎用低消費電力ハードウェア(マイクロコントローラ)を24倍、特別目的ASICを16倍に高めるカスタム設計のアクセラレータハードウェアの電力要求を特徴付ける。
- 参考スコア(独自算出の注目度): 6.557082555839738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keyword spotting (KWS) provides a critical user interface for many mobile and
edge applications, including phones, wearables, and cars. As KWS systems are
typically 'always on', maximizing both accuracy and power efficiency are
central to their utility. In this work we use hardware aware training (HAT) to
build new KWS neural networks based on the Legendre Memory Unit (LMU) that
achieve state-of-the-art (SotA) accuracy and low parameter counts. This allows
the neural network to run efficiently on standard hardware (212$\mu$W). We also
characterize the power requirements of custom designed accelerator hardware
that achieves SotA power efficiency of 8.79$\mu$W, beating general purpose low
power hardware (a microcontroller) by 24x and special purpose ASICs by 16x.
- Abstract(参考訳): キーワードスポッティング(kws)は、携帯電話、ウェアラブル、車など、多くのモバイルおよびエッジアプリケーションにとって重要なユーザインターフェースを提供する。
KWSシステムは通常「常時オン」であるので、精度と電力効率の最大化は実用性の中心である。
本研究では,ハードウェアアウェアネストレーニング(hat)を使用して,lmu(legendre memory unit)に基づいた新たなkwsニューラルネットワークを構築し,最先端(sota)精度とパラメータ数を削減した。
これにより、ニューラルネットワークは標準ハードウェア(212$\mu$W)上で効率的に動作することができる。
また、SotA電力効率8.79$\mu$Wを実現し、汎用低消費電力ハードウェア(マイクロコントローラ)を24倍、特別目的ASICを16倍に高めるカスタム設計のアクセラレータハードウェアの電力要求を特徴付ける。
関連論文リスト
- FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - A Fast Network Exploration Strategy to Profile Low Energy Consumption
for Keyword Spotting [1.121535291831358]
キーワードスポッティングは、スマートデバイスをターゲットにした音声指向のユーザインタラクションの不可欠な部分である。
本稿では,ネットワークフィルタのスケーリングを考慮した回帰に基づくネットワーク探索手法を提案する。
我々の設計は、Xilinx AC 701プラットフォーム上に展開されており、エネルギー効率とエネルギー効率を少なくとも2.1$times$と4$times$で改善している。
論文 参考訳(メタデータ) (2022-02-04T19:51:41Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Sub-mW Keyword Spotting on an MCU: Analog Binary Feature Extraction and
Binary Neural Networks [19.40893986868577]
キーワードスポッティング(KWS)は、我々の周辺にある多くのユビキタススマートデバイスとのインタラクションを可能にする重要な機能である。
本研究は、低コストマイクロコントローラユニット(MCU)におけるKWSエネルギー効率に対処する。
デジタル前処理をアナログフロントエンドに置き換えることで、データ取得と前処理に必要なエネルギーを29倍に削減できることを示す。
論文 参考訳(メタデータ) (2022-01-10T15:10:58Z) - Ultra-Low Power Keyword Spotting at the Edge [0.0]
キーワードスポッティング(KWS)は、私たちを取り巻く多くのインテリジェントデバイスの中で、不可欠である。
そこで本研究では,MAX78000における配置におけるエンド・ツー・エンドのエネルギー効率を考慮した最適化KWS CNNモデルを設計する。
ハードウェアとモデル最適化の組み合わせにより、12クラスの96.3%の精度を実現し、推論あたり251 uJしか消費しない。
論文 参考訳(メタデータ) (2021-11-09T08:24:36Z) - Quantization and Deployment of Deep Neural Networks on Microcontrollers [0.0]
この研究は、低消費電力32ビットマイクロコントローラへのディープニューラルネットワークの量子化と展開に焦点を当てている。
エンドツーエンドのディープニューラルネットワークトレーニング、量子化、デプロイメントのための新しいフレームワークが紹介されている。
単一精度32ビット浮動小数点と8ビットおよび16ビット整数上の固定点を用いた実行がサポートされている。
論文 参考訳(メタデータ) (2021-05-27T17:39:06Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - SmartDeal: Re-Modeling Deep Network Weights for Efficient Inference and
Training [82.35376405568975]
ディープニューラルネットワーク(DNN)は重いパラメータ化を伴い、ストレージ用の外部動的ランダムアクセスメモリ(DRAM)につながります。
We present SmartDeal (SD), a algorithm framework to trade high-cost memory storage/ access for lower-cost compute。
SDは貯蔵および訓練エネルギーの10.56xそして4.48x減少、最先端の訓練のベースラインと比較される無視可能な正確さの損失をもたらすことを示します。
論文 参考訳(メタデータ) (2021-01-04T18:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。