論文の概要: Hardware Accelerator and Neural Network Co-Optimization for
Ultra-Low-Power Audio Processing Devices
- arxiv url: http://arxiv.org/abs/2209.03807v1
- Date: Thu, 8 Sep 2022 13:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:01:22.276908
- Title: Hardware Accelerator and Neural Network Co-Optimization for
Ultra-Low-Power Audio Processing Devices
- Title(参考訳): 超低消費電力オーディオデバイスのためのハードウェアアクセラレータとニューラルネットワークの共最適化
- Authors: Christoph Gerum, Adrian Frischknecht, Tobias Hald, Paul Palomero
Bernardo, Konstantin L\"ubeck, Olver Bringmann
- Abstract要約: HANNAHは、ディープニューラルネットワークとハードウェアアクセラレータのハードウェア/ソフトウェア共同設計の自動化と統合のためのフレームワークである。
そこで,HANNAHは,音声分類タスクにおいて,消費電力を最小化し,高い精度で適切なニューラルネットワークを見つけることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing spread of artificial neural networks does not stop at
ultralow-power edge devices. However, these very often have high computational
demand and require specialized hardware accelerators to ensure the design meets
power and performance constraints. The manual optimization of neural networks
along with the corresponding hardware accelerators can be very challenging.
This paper presents HANNAH (Hardware Accelerator and Neural Network seArcH), a
framework for automated and combined hardware/software co-design of deep neural
networks and hardware accelerators for resource and power-constrained edge
devices. The optimization approach uses an evolution-based search algorithm, a
neural network template technique, and analytical KPI models for the
configurable UltraTrail hardware accelerator template to find an optimized
neural network and accelerator configuration. We demonstrate that HANNAH can
find suitable neural networks with minimized power consumption and high
accuracy for different audio classification tasks such as single-class wake
word detection, multi-class keyword detection, and voice activity detection,
which are superior to the related work.
- Abstract(参考訳): 人工ニューラルネットワークの普及は、超低消費電力エッジデバイスでは止まらない。
しかしながら、これらは高い計算要求を持ち、設計が電力と性能の制約を満たすように特別なハードウェアアクセラレータを必要とすることが多い。
ニューラルネットワークとそれに対応するハードウェアアクセラレータを手動で最適化することは、非常に難しい。
本稿では,資源・電力制約エッジデバイスのための深層ニューラルネットワークとハードウェアアクセラレータのハードウェア/ソフトウェア共同設計を自動化するフレームワークであるHANNAH(Hardware Accelerator and Neural Network seArcH)を提案する。
最適化アプローチでは、進化に基づく探索アルゴリズム、ニューラルネットワークテンプレート技術、および構成可能なUltraTrailハードウェアアクセラレーションテンプレートのための分析的KPIモデルを使用して、最適化されたニューラルネットワークとアクセラレーション構成を見つける。
提案手法では,単クラスウェイクワード検出,複数クラスキーワード検出,音声アクティビティ検出などの音声分類タスクにおいて,電力消費量を最小化し,高精度なニューラルネットワークを探索できることを実証する。
関連論文リスト
- Recent Advances in Scalable Energy-Efficient and Trustworthy Spiking
Neural networks: from Algorithms to Technology [11.479629320025673]
スパイキングニューラルネットワーク(SNN)は、幅広い信号処理アプリケーションのために、ディープニューラルネットワークの魅力的な代替品となっている。
我々は、低レイテンシとエネルギー効率のSNNを効率的に訓練し、拡張するためのアルゴリズムと最適化の進歩について述べる。
デプロイ可能なSNNシステム構築における研究の今後の可能性について論じる。
論文 参考訳(メタデータ) (2023-12-02T19:47:00Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Comparative Analysis of Polynomial and Rational Approximations of
Hyperbolic Tangent Function for VLSI Implementation [5.429955391775968]
ディープニューラルネットワークは、多くのコンピュータビジョンや、オブジェクト検出や音声認識などのヒューマンマシンインタフェースアプリケーションにおいて、最先端の結果をもたらす。
これらのネットワークは計算コストがかかるため、より低コストで必要な性能を達成するためにカスタマイズされたアクセラレータが設計されている。
論文 参考訳(メタデータ) (2020-07-13T07:31:02Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。