論文の概要: A Fast Network Exploration Strategy to Profile Low Energy Consumption
for Keyword Spotting
- arxiv url: http://arxiv.org/abs/2202.02361v1
- Date: Fri, 4 Feb 2022 19:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 17:05:01.557515
- Title: A Fast Network Exploration Strategy to Profile Low Energy Consumption
for Keyword Spotting
- Title(参考訳): キーワードスポッティングにおける低消費電力化のための高速ネットワーク探索手法
- Authors: Arnab Neelim Mazumder, and Tinoosh Mohsenin
- Abstract要約: キーワードスポッティングは、スマートデバイスをターゲットにした音声指向のユーザインタラクションの不可欠な部分である。
本稿では,ネットワークフィルタのスケーリングを考慮した回帰に基づくネットワーク探索手法を提案する。
我々の設計は、Xilinx AC 701プラットフォーム上に展開されており、エネルギー効率とエネルギー効率を少なくとも2.1$times$と4$times$で改善している。
- 参考スコア(独自算出の注目度): 1.121535291831358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keyword Spotting nowadays is an integral part of speech-oriented user
interaction targeted for smart devices. To this extent, neural networks are
extensively used for their flexibility and high accuracy. However, coming up
with a suitable configuration for both accuracy requirements and hardware
deployment is a challenge. We propose a regression-based network exploration
technique that considers the scaling of the network filters ($s$) and
quantization ($q$) of the network layers, leading to a friendly and
energy-efficient configuration for FPGA hardware implementation. We experiment
with different combinations of $\mathcal{NN}\scriptstyle\langle q,\,s\rangle
\displaystyle$ on the FPGA to profile the energy consumption of the deployed
network so that the user can choose the most energy-efficient network
configuration promptly. Our accelerator design is deployed on the Xilinx AC 701
platform and has at least 2.1$\times$ and 4$\times$ improvements on energy and
energy efficiency results, respectively, compared to recent hardware
implementations for keyword spotting.
- Abstract(参考訳): 最近のキーワードスポッティングは、スマートデバイスをターゲットにした音声指向ユーザインタラクションの不可欠な部分である。
この範囲では、ニューラルネットワークはその柔軟性と精度のために広く使われている。
しかし、正確な要求とハードウェアの配置の両方に適切な構成を見つけるのは困難である。
本稿では,ネットワークフィルタのスケーリング($s$)とネットワーク層の量子化($q$)を考慮した回帰型ネットワーク探索手法を提案する。
fpga上で$\mathcal{nn}\scriptstyle\langle q,\,s\rangle \displaystyle$ on the fpgaを使って、デプロイされたネットワークのエネルギー消費をプロファイルし、ユーザが最もエネルギー効率の良いネットワーク構成を迅速に選択できるようにする。
我々のアクセラレータ設計はXilinx AC 701プラットフォーム上にデプロイされており、キーワードスポッティングの最近のハードウェア実装と比較して、それぞれエネルギー効率とエネルギー効率の改善が2.1$\times$と4$\times$である。
関連論文リスト
- SpikeExplorer: hardware-oriented Design Space Exploration for Spiking Neural Networks on FPGA [42.170149806080204]
SpikExplorerは、ハードウェア指向のAutomatic Design Space ExplorationのためのPythonツールである。
最適なネットワークアーキテクチャ、ニューロンモデル、内部およびトレーニングパラメータを検索する。
MNISTデータセットでは95.8%の精度に達し、消費電力は180mW/image、レイテンシは0.12ms/imageである。
論文 参考訳(メタデータ) (2024-04-04T17:53:08Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - Hardware Accelerator and Neural Network Co-Optimization for
Ultra-Low-Power Audio Processing Devices [0.0]
HANNAHは、ディープニューラルネットワークとハードウェアアクセラレータのハードウェア/ソフトウェア共同設計の自動化と統合のためのフレームワークである。
そこで,HANNAHは,音声分類タスクにおいて,消費電力を最小化し,高い精度で適切なニューラルネットワークを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-09-08T13:29:09Z) - AI in 6G: Energy-Efficient Distributed Machine Learning for Multilayer
Heterogeneous Networks [7.318997639507269]
本稿では,ネットワーク層とエンティティにまたがるさまざまな機械学習手法に関連するタスクを分散する,階層ベースの新しいHetNetアーキテクチャを提案する。
このようなHetNetは、複数のアクセス方式と、エネルギー効率を高めるためのデバイス間通信(D2D)を備えている。
論文 参考訳(メタデータ) (2022-06-04T22:03:19Z) - Dynamic Slimmable Network [105.74546828182834]
ダイナミックスリム化システム「ダイナミックスリム化ネットワーク(DS-Net)」を開発。
ds-netは,提案するダブルヘッド動的ゲートによる動的推論機能を備えている。
静的圧縮法と最先端の静的および動的モデル圧縮法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-03-24T15:25:20Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - EmotionNet Nano: An Efficient Deep Convolutional Neural Network Design
for Real-time Facial Expression Recognition [75.74756992992147]
本研究では,人間と機械の協調設計戦略によって構築された,効率的な深層畳み込みニューラルネットワークであるEmotionNet Nanoを提案する。
EmotionNet Nanoの2つの異なるバリエーションが提示され、それぞれがアーキテクチャと計算の複雑さと精度のトレードオフを持っている。
提案するEmotionNet Nanoネットワークは,実時間推定速度(例えば,15Wおよび30Wで$>25$ FPSと$>70$ FPS)と高エネルギー効率を実現した。
論文 参考訳(メタデータ) (2020-06-29T00:48:05Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z) - Real-Time Semantic Segmentation via Auto Depth, Downsampling Joint
Decision and Feature Aggregation [54.28963233377946]
本稿では,セグメンテーション戦略の自動化を目的として,AutoRTNetという共同検索フレームワークを提案する。
具体的には,ネットワーク深度とダウンサンプリング戦略を協調的に決定するハイパーセルと,自動マルチスケール機能アグリゲーションを実現するアグリゲーションセルを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。